Етичен AI амбициозно се надява AI да научи етично поведение от само себе си, като например случая с AI в автономните самоуправляващи се автомобили

Известно е Аристотел, че да възпитаваш ума, без да възпитаваш сърцето, не е никакво образование.

Можете да тълкувате тази проницателна забележка, за да предположите, че изучаването на етиката и моралното поведение е изключително важно за човечеството. В дебата за класическата природа срещу възпитанието трябва да се запитаме колко от нашите етични нрави са инстинктивно местни, докато колко много се научават в течение на живота ни. Малките деца са наблюдателни към другите хора и вероятно събират своите етични основи въз основа на това, което виждат и чуват. Същото може да се каже и за тийнейджърите. За възрастните с отворено мислене те също ще продължат да се приспособяват и да напредват в етичното си мислене в резултат на изживяването на ежедневния свят.

Разбира се, изричното преподаване на някого за етика също е подходящо за курса. Хората са длъжни да научат за етичните начини, като посещават уроци по темата или може би като ходят на събития и практики, които ги интересуват. Етичните ценности могат да бъдат ясно идентифицирани и споделени като средство за подпомагане на другите при формулирането на собствената им структура на етика. В допълнение, етиката може да бъде фино скрита в истории или други методи на обучение, които в крайна сметка носят послание за това от какво се състои етичното поведение.

Така изглежда хората проникват в етиката.

Какво ще кажете за изкуствения интелект (AI)?

Разбирам, че подобен въпрос може да изглежда странен. Със сигурност очакваме хората да включат етиката и да вървят през живота с някакво подобие на морален кодекс. Това е прост и очевиден факт. От друга страна изглежда, че машина или компютър не се вписват в същата референтна рамка. Вашата човешка реакция може да бъде, че е пресилено или странно да смятате, че AI има въплъщение на етиката и моралните кодекси.

Най-доброто, което изглежда можем да направим за AI, е да го измислим така, че да не се отклонява от етичното поведение. Разработчиците на ИИ и тези, които използват ИИ, трябва да бъдат държани отговорни да гарантират, че ИИ, така както е проектиран и когато е приложен, вече е в съответствие с етичните предписания. Извън портата, така да се каже, AI вече трябва да е девствен и готов за работа като напълно етично подходяща измислица.

Със сигурност ще сте прав, като мислите, че системите за изкуствен интелект наистина трябва да бъдат изработени така, че да се вписват изцяло в етична основа. Обществото беше доста развълнувано, когато най-новата вълна от системи за изкуствен интелект беше пусната за първи път и изглеждаше, че демонстрира, че сме в ера на AI за добро. AI би помогнал за решаването на много от най-предизвикателните проблеми в света. Напредъкът в технологиите се използва, за да се допълнят човешките способности с когнитивни съоръжения, но ми позволете да подчертая, че все още нямаме разумен ИИ и не знаем дали ще бъде постигнат разумен ИИ.

Проблемът с мъчителния бързане за пускане на AI в света постепенно разкри грозния подкорем на AI, известен като AI за лошо. Имаше много заглавия за AI системи, които използват алгоритмично вземане на решения (ADM), което е пълно с пристрастия и неравенства. На всичкото отгоре голяма част от съвременния AI страда от липса на прозрачност, има тенденция да бъде необясним по отношение на обяснението на изчислителните решения, често проявява липса на справедливост и позволява на някои да отклоняват човешката си отговорност, като сочат с пръст към AI.

В моите писания подробно описах етичния AI и етиката на AI, включително връзката тук намлява връзката тук, Само за да назовем няколко.

Как може да има AI за лошо ако приемем като заявена конструкция, че ИИ трябва да бъде създаден от самото начало, за да се избегнат неетични действия?

Отговорът е многократен.

Първо, много разработчици на AI и компании, занимаващи се с AI, сами по себе си не знаят колко е важно да оформят своя AI, за да останат в рамките на етичните граници. Концепцията изобщо не е на радара им. Привлекателността на бързото печелене на пари кара някои да тласкат напред каквито и диви идеи за ИИ, които искат да произведат умишлено. Няма нужда да разбирате някакви етични неща. Просто изградете AI и го стартирайте.

На второ място, има такива, които създават ИИ, които украсяват откровеното осъзнаване на етичните последствия, но те явно омаловажават или донякъде игнорират съображенията за Етичния ИИ. Една често срещана гледна точка е класическата мантра на техниците да се стремиш да се проваляш бързо и да се проваляш често. Просто продължавайте да повтаряте, докато нещата се надяваме да се уредят по подходящ начин. Шансовете за притискане на каквото и да е систематично и обмислено включване на етиката на ИИ в тези бързи усилия за ИИ са за съжаление малки. Обсъждам необходимостта от овластяване на лидерството към етичния AI в връзката тук.

На трето място, съществува много мътност относно това какви етични предпазни парапети трябва да се забавляват при разработването на AI. Разбира се, в днешно време има много насоки за етика на ИИ, вижте моето отразяване в връзката тук, въпреки че тези удобни теоретични предписания е трудно да се превърнат непременно в специфики за дадена изградена AI система. Посочих, че бавно ще видим появата на инструменти и методологии за изграждане на AI, които включват етични практики за кодиране на AI, помагайки да се затвори пропастта между абстрактните аспекти и пословичните аспекти, свързани с каучука и пътя.

Четвърто, според акцента тук, ние изследваме засегнатия случай на ИИ, който дори ако първоначално е съставен в етични граници, впоследствие, докато се използва, криволиче отвъд предполагаемите етично кодирани параметри.

Трябва да го разопаковаме.

Голяма част от днешния AI използва машинно обучение (ML) и дълбоко обучение (DL). Това са техники и технологии за съпоставяне на изчислителни модели. Като цяло идеята е, че събирате заедно много подходящи данни за всичко, което AI би трябвало да може да направи, подавате тези данни в избрания изчислителен модел за съвпадение и съпоставянето на шаблон математически се опитва да намери полезни модели. Обърнете внимание, че няма никакво разум от страна на този AI (което, отново, все още не съществува такова нещо). Нито има замесени разсъждения от здрав разум. Всичко е математика и изчисления.

Възможно е данните, подавани в ML/DL, вече да са наситени с пристрастия и неравенства. В този случай шансовете са, че съвпадението на изчислителния модел просто ще имитира същите наклонности. Ако предоставите данни, които предпочитат една раса пред друга или предпочитат един пол пред другия, има значителен шанс съвпадението на шаблона да се захване с него като открития модел.

Голям проблем с този вид заключване е, че може да ни е трудно да установим, че моделите се основават на този аспект на данните. Тънливата и сложна математика може да направи изплуването на такива намерени модели доста проблематично. Дори тестването на AI не е задължително да разкрие тези тенденции, в зависимост от обхвата и дълбочината на тестовете, които се прилагат.

Така че, нека приемем, че сте изградили система за изкуствен интелект и сте направили домашната си работа, като първо се опитате да избегнете използването на данни, които са имали вече съществуващи пристрастия. След това, след като са били предприети машинното обучение и дълбокото обучение, вие тествахте резултатите, за да видите дали по някакъв начин са възникнали пристрастия или неравенства. Да предположим, че не можете да откриете такива неблагоприятни наклонности.

Всичко казано, сега е дадена зелена светлина, за да продължим и да използваме AI. Хората ще започнат да използват AI и вероятно ще приемат, че е етично подходящ. Това мислят и разработчиците. Компанията, която предлага AI, смята това. Всички тръгваме.

Ето какво може да се случи.

Вероятно е активиран намек за отклонение, което не е открито в оригиналните данни и което не е уловено по време на тестването на AI. Може би това се случва рядко. Може да повярвате, че докато е рядко, всичко е наред. Съмнявам се обаче, че тези, които са уязвими към споменатото пристрастие, са готови да видят нещата по този начин. Смея да твърдя, че системата за изкуствен интелект и тези, които са я формулирали, ще се сблъскат с последствията или в съдебните съдилища, или в отворения съд на общественото мнение.

Друг вариант е пословичната идея да вземеш един инч и да хванеш миля. Първоначално предположението може да е малко. По време на използването на AI, AI може да е бил създаден, за да се променя, докато нещата вървят. Този вид „обучение“ или „самообучение“ може да бъде доста полезно. Вместо да изисква от разработчиците на човешкия AI непрекъснато да променят и коригират AI системата, AI е създаден да прави това сам. Без забавяния, без скъп труд и т.н.

Недостатъкът на тази удобна самонастройка е, че предусещането може да се издигне до все по-голямо и по-голямо в обхвата на използване от AI. Докато пристрастието може да е било в тесен малък ъгъл, сега му е дадено място за разширяване. AI не изглежда, че това е „грешно“ и просто изчислително разширява нещо, което изглежда работи.

Ако това кара косата да стои на главата ви, ще трябва да седнете за следващия вариант.

Да предположим, че пристрастието не е съществувало от самото начало и имаме всички обосновани убеждения, че AI е напълно без пристрастия. Или имахме късмет, или може би систематично се уверихме, че в данните няма отклонения и нито едно не е възникнало чрез съвпадението на изчислителния модел. Въпреки тази въздишка на облекчение, AI има право да се настройва, докато се използва. Вратата на Пандора се отваря и AI избира да гравитира изчислително към пристрастия, които се откриват по време на каквото и да прави AI.

Новооткритото пристрастие се поглъща в AI и никой не е по-мъдър, че се е случило. Уви, ние създадохме чудовище, истински Франкенщайн.

Как може да се предотврати или поне да се маркира тази поява?

Един подход, който набира сила, се състои от вграждане в AI на компонент за събиране на етика. AI е конструиран да включва етични елементи на AI. След това тези елементи наблюдават или наблюдават останалата част от AI, докато AI се коригира с течение на времето. Когато изглежда, че ИИ е надхвърлил програмираните етични предписания, Етичният ИИ се опитва да въведе тези корекции или предупреждава разработчиците, че нещо се е объркало.

Можете да опитате да програмирате този етичен AI надзорен капацитет и да се надявате, че той ще надделее, докато AI се използва.

Друг донякъде противоречив ъгъл би бил използването на машинно обучение и дълбоко обучение за обучение на етичните аспекти на AI в системата на AI.

Кажи какво?

Да, може би неортодоксалната концепция е, че вместо човешки програмист да кодира директно набор от етични предписания на AI, AI е оформен да се опитва да ги „научи“ вместо това. Припомнете си, че накратко отбелязах, че използването на ML/DL обикновено разчита на подаване на данни в алгоритмите и се осъществява съвпадение на изчислителния модел. Въпросът за милиони долари е дали можем да използваме същия механизъм, за да внесем етични ценности в AI система.

Предполагам, че бихте могли да оприличите това на моята дискусия в началото за това как хората осъзнават етичните принципи, въпреки че моля, не антропоморфизирайте днешния ИИ като сравним с човешкото мислене (не е и ще повторя това увещание скоро). AI може да бъде програмиран „вродено“ с етични правила за изкуствен интелект. Или ИИ може да „научи“ етични правила на ИИ. Можете да правите и двете, разбира се, което е нещо, което съм описал другаде, вижте връзката тук.

Отделете малко време, за да обмислите привидно поразителната концепция, че AI може да „научи“ етика и следователно вероятно спазва етичното поведение.

Тези изследователи използват пример за система с изкуствен интелект, която определя желаната температура в къщата, за да илюстрират как може да работи това: „Първо „наблюдава“ поведението на хората в различни домакинства само за седмица и прави заключения за техните предпочитания. След това използва сензор за откриване на движение, за да определи дали някой е вкъщи. Когато къщата беше празна, интелигентният термостат влезе в режим на висока икономия на енергия; когато хората са вкъщи, термостатът регулира температурата, за да отговаря на техните предпочитания. Този термостат ясно отговаря на двете изисквания за етичен бот, макар и много просто. Той оценява предпочитанията на хората и ги налага върху управлението на отоплителната и охладителната система. Човек може да попита какво общо има това със социалните морални ценности. Този термостат позволява на хората с различни стойности да имат предпочитаните от тях температурни настройки. Обитателите на дома нямат нужда да нулират термостата всеки ден, когато идват и си отиват. Този прост етичен бот също така намалява общия енергиен отпечатък на общността“ (според статията на Амитай Ециони и Орен Ециони, озаглавена „Етика, подпомагана от AI“ в тома на Етика и информационни технологии).

Преди да се задълбоча по-подробно в обратите и завоите на наличието на AI, който „научава“ етично поведение, бих искал да кажа нещо повече за състоянието на AI.

AI може да се състои от следните възможни състояния:

1. Днешният обикновен AI без разум

2. Чувствителен AI с човешко качество (все още нямаме такъв)

3. Sentient AI, който е супер интелигентен (участък отвъд #2)

Ще се съсредоточа върху съществуващото състояние, което е неразумен, обикновен AI. Голяма част от това, което може да прочетете за етичния AI понякога обхваща разумния AI и следователно е силно спекулативно. Казвам, че е спекулативно, защото никой не може да закачи опашката на магарето какво ще бъде разумният ИИ. Още по-далече отвъд сферата на човешкия качествен разумен ИИ е много възхитителният супер-интелигентен ИИ. Има много научнофантастични истории и притеснения за това как тези вкусове на AI може да решат да поробят човечеството или може би просто да ни унищожат. Това е известно като екзистенциален риск от ИИ. Понякога дилемата се формулира и като катастрофален риск от AI.

Някои твърдят, че може да се оправим, стига да поддържаме AI за неразбиращия обикновен AI, който имаме днес. Да предположим, че не можем да достигнем до разумния AI. Представете си, че колкото и усилено да се опитваме да създадем разумен AI, не успяваме да го направим. Освен това приемете за дискусия, че разумният AI не възниква от някакъв мистериозен спонтанен процес.

Тогава не сме ли сигурни, че този по-малък калибър AI, който е единственият възможен вид AI, ще бъде използван?

Не точно.

До голяма степен е вероятно да възникнат същите общи проблеми. Не предполагам, че ИИ „мисли“ по пътя си, за да иска да ни унищожи. Не, обикновеният нечувствителен ИИ просто е поставен на позиции на сила, които ни затъват в самоунищожение. Например, ние поставяме неразумния AI в оръжия за масово унищожение. Тези автономни оръжия не са в състояние да мислят. В същото време хората не се държат напълно на линия. В резултат на това ИИ като форма на автономна автоматизация в крайна сметка води до катастрофални резултати, или от човешка команда да го направи, или от бъг или грешка, или чрез имплантирани злодеяния, или чрез самонастройки, които водят нещата до това. грозен път и т.н.

Бих твърдял, че проблемът с етиката на ИИ съществува и за трите състояния, предвидени от ИИ, а именно че имаме етични проблеми с ИИ с несъзнателния обикновен стар ИИ и с ИИ с разум, който е или просто човешко ниво, или разширения ИИ, който достига всепризнато ниво на свръхинтелигентност.

Като се има предвид това отрезвяващо изявление, ние със сигурност можем да обсъждаме мащаба и трудността, свързани с етичните проблеми на всяко от съответните нива на ИИ. Обичайната гледна точка е, че затруднението с етиката на ИИ е по-малко непреодолимо на неразсъдливия ИИ, по-трудно на нивото на ИИ, равно на разумния човек, и истинско главоболие на етапа на работа с разумния свръхинтелигентен ИИ.

Колкото по-добър става AI, толкова по-лош става проблемът с етиката на AI.

Може би това е неприкосновен закон на природата.

Връщайки се към фокуса върху днешния AI, опитвайки се да накараме AI да „научи“ етично поведение чрез съвременното машинно обучение и задълбочено обучение, е изпълнен с притеснения и трудни проблеми. Да предположим, че ИИ не успява да събере желаните етични предписания? Как ще разберем със сигурност, че се е отклонила при това? Освен това други части от AI система потенциално ще отменят събраните етични конструкции? Добавете към това, че ако AI се настройва в движение, корекциите биха могли да изтънят етичните аспекти или неволно да ги затрупат напълно.

За да влоши нещата, „ученето“ може да доведе до кацане на AI върху наистина неетично поведение. Докато смятахме, че правим правилното нещо, като подтикваме AI да бъде етичен, се оказва, че вместо това AI се е подхлъзнал към съвпадение на модели по неетичните аспекти. Говорете за стрелба в собствения си крак, това абсолютно може да се случи.

На този етап от тази дискусия, бих се обзаложил, че желаете някои допълнителни примери от реалния свят, които биха могли да подчертаят как AI „ученето“ на етиката може да се приложи към днешния AI (освен вкусния тийзър на примера с термостата).

Радвам се, че попитахте.

Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Появата на истински самостоятелно управляващи се автомобили, базирани на AI, осветлява ли нещо за това, че AI е в състояние да „научи“ етични предписания на AI и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, че AI управлява колата изцяло самостоятелно и няма никаква човешка помощ по време на шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5, за която все още не знаем дали това ще бъде възможно и колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и етична инокулация с изкуствен интелект

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да направим задълбочено потапяне в самоуправляващите се автомобили и възможностите за етичен AI, което води до повдигащо вежди твърдение, че можем да накараме AI да „научи“ сам за етичните поведения.

Нека използваме лесно ясен пример. Самоуправляваща се кола, базирана на AI, се движи по кварталните улици и изглежда шофира безопасно. Отначало сте отделяли специално внимание на всеки път, когато сте успели да зърнете самоуправляващата се кола. Автономното превозно средство се открояваше със своя багажник от електронни сензори, включващи видеокамери, радарни устройства, LIDAR устройства и други подобни. След много седмици на самоуправляващата се кола, която пътува из общността ви, сега почти не го забелязвате. Що се отнася до вас, това е просто още една кола по вече натоварените обществени пътища.

За да не мислите, че е невъзможно или неправдоподобно да се запознаете с виждането на самоуправляващи се автомобили, често съм писал за това как местата, които са в обхвата на изпробването на самоуправляващи се автомобили, постепенно свикнаха да виждат усъвършенстваните превозни средства, вижте моя анализ на тази връзка тук. Много от местните жители в крайна сметка преминаха от зяпащи уста, възторжени погледи към сега излъчващи обширна прозявка на скука, за да станат свидетели на тези криволичещи самоуправляващи се коли.

Вероятно основната причина в момента, поради която могат да забележат автономните превозни средства, е поради фактора на дразнене и раздразнение. Стандартните системи за шофиране с изкуствен интелект гарантират, че автомобилите спазват всички ограничения на скоростта и правилата за движение. За забързаните човешки шофьори в традиционните им коли, управлявани от хора, понякога се дразните, когато сте заседнали зад строго спазващите закона самоуправляващи се автомобили, базирани на AI.

Това е нещо, с което всички ние може да трябва да свикнем, с право или погрешно.

Обратно към нашата приказка. Един ден, да предположим, че кола, която се управлява самостоятелно във вашия град или град, се движи и се натъква на ситуация, в която пешеходец чака да пресече пътя. Да приемем, че пешеходецът сам по себе си няма право на път. Автомобил, управляван от човек, може да мине покрай пешеходеца и да бъде напълно законен при това. По същия начин системата за шофиране с изкуствен интелект е законно в състояние да премине покрай чакащия пешеходец.

Решаването дали да спре и да пусне пешеходеца да премине през улицата е изцяло дискреционно за водача, независимо дали е водач човек или система за шофиране с изкуствен интелект.

Сигурен съм, че сте се сблъсквали с подобна ситуация безброй пъти. Може би бързате, така че не спирате, за да пропуснете пешеходеца. В друг случай имате достатъчно време да стигнете до вашата дестинация, като по този начин избирате да спрете и да позволите на чакащия човек да премине през улицата. Вашето настроение и конкретните обстоятелства диктуват какво ще изберете да правите.

Нищо в този сценарий не изглежда необичайно или досадно.

Преди да разгледам AI страната на нещата, може да ви е интересно да знаете, че този конкретен аспект на дискретност, позволяващ на пешеходец да пресича улица, е внимателно проучен. Изследователите са установили, че понякога изборът, направен от шофьора, може да зависи очевидно от расови или полови пристрастия. Шофьорът човек може да определи размера на чакащия пешеходец и да избере да позволи на лицето да пресича, както изглежда въз основа на присъщите пристрастия на водача. Дали шофьорът дори осъзнава, че го правят, е въпрос на текущи изследвания. Вижте моето покритие на тази връзка тук.

Подготвил съм почвата за нашето проучване какво може да направи една система за шофиране с изкуствен интелект в ситуацията на пешеходната пътека.

Конвенционалното програмиране на ИИ може да доведе до това, че разработчиците на ИИ решават винаги да спират системата за шофиране с ИИ и да оставят пешеходеца да пресича. Това изглежда е етично правилното или гражданско нещо. Самоуправляващата се кола се отдава на чакащия човек, който иска да пресече улицата.

Смея да твърдя, че ако бяхте пътник в самоуправляваща се кола и ИИ винаги спираше за всички очакващи по усмотрение пешеходци, може да полудете. Бързото ви пътуване до хранителния магазин може да отнеме много пъти повече време. Не забравяйте също, че ние не визираме пешеходци, които имат благочестивото законно право на преминаване, тъй като тези случаи вероятно вече биха имали AI програмиран да позволява винаги. Ние се фокусираме само върху дискреционните обстоятелства.

Има повече минуси в тази декларация, че винаги спирате, за да позволите на пешеходците да пресичат улицата.

Тези, които произвеждат и използват самоуправляващи се автомобили, базирани на изкуствен интелект, искат хората да се возят в тях. Идеята е, че като имаме самоуправляващи се автомобили, можем да намалим броя на годишните автомобилни катастрофи, които в момента водят до около 40,000 2.5 смъртни случая и XNUMX милиона наранявания само в Съединените щати, вижте моята колекция от статистически данни на тази връзка тук. Освен тази почитана обществена цел, автомобилните производители и производителите на технологии за самостоятелно шофиране се надяват да спечелят и пари от своите AI творения, естествено.

Споменавам това, защото хората може да решат да не се возят в самоуправляващи се коли, ако системата за шофиране с AI прави неща, които ненужно в крайна сметка отлагат пътуванията. Всеки обикновен човек би разсъждавал, че като вместо това избере шофьор-човек, пътуването може да бъде по-бързо и следователно избирането на автомобил с изкуствен интелект за пътуване може да бъде поставен много ниско в списъка на техния избор. Това от своя страна би означавало, че няма да имаме търсеното намаляване на автомобилните катастрофи, а също и че производителите потенциално биха намерили стоките им за нерентабилни.

Като се има предвид този набор от аргументи, може да се окажете подтикнати да си помислите, че ИИ никога не трябва да спира, когато възникне дискреционен случай на пешеходец, който иска да пресече улицата. Просто програмирайте системата за шофиране с изкуствен интелект да прави всичко, което е строго законно. Ако няма законово изискване за пропускане на пешеходец да пресича, тогава лош късмет за този чакащ пешеходец. Може би лицето трябва да си проправи път до пропускателен пункт, който позволява правно основание за AI да спре самоуправляващата се кола.

Можете ли да си представите възмущението по този въпрос?

Хората във вашия град или град постепенно откриват, че автономните автомобили с изкуствен интелект никога няма да позволят на пешеходец по преценка да пресича. Този дяволски раздразнителен AI! Сякаш изкуственият интелект блъска носа си към хората. Невъзпитан нахалник на неподходяща автоматизация. В допълнение, представете си, че има документирани обстоятелства, при които пешеходците отчаяно се нуждаят да пресичат и AI изобщо няма да спре.

Междувременно човешки шофьори охотно спираха, за да позволят на тези „отчаяни“ хора безопасно да преминат през улицата.

В резултат на това възмущение автомобилите с изкуствен интелект вече не са добре дошли по улиците и страничните пътища на вашия регион. Разрешенията, издадени от градските ръководители, се отнемат. Изкарването на неблагодарните зверове от пътищата ни е гласовият шум.

Добре, изглежда сме между камък и наковалня. ИИ не трябва винаги да позволява на свободния пешеходец да пресича (не винаги да спира). ИИ не трябва винаги да пречи на пешеходец по преценка да пресича (не винаги приближавайте по-късно). Какво да правя?

Очевидният отговор би бил да се програмира AI да действа по дискреционен начин.

Моля ви да обмислите ADM (алгоритмично вземане на решения), от което трябва да се състои това. Ще се опита ли ИИ да открие естеството на пешеходеца и да използва разпознатите характеристики като основа за вземане на решение дали да спре самоуправляващата се кола или не? Може би някой по-възрастен е начинът да избере. Но дали се създава възрастова дискриминация? И така нататък.

Може би системата за шофиране с изкуствен интелект е програмирана да спира през деня и никога да не спира през нощта. Логиката вероятно е, че се предполага, че е по-безопасно за ездачите в самоуправляващата се кола автономното превозно средство да спира през деня, но не и в по-мрачните часове на вечерното време.

Това може би звучи разумно. Част от проблема ще бъдат очакванията на пешеходците. Ето какво имам предвид. Пешеходците виждат самоуправляващите се автомобили с ИИ, които спират за прелези по преценка, които се случват на дневна светлина. Пешеходците не знаят какви критерии използва ИИ, за да реши да спре. Предположението на някои пешеходци е, че AI винаги ще спре (без да осъзнават, че дневната светлина спрямо нощта е истинският определящ фактор). В резултат на това тези пешеходци, които вярват, че самоуправляващата се кола винаги ще спре, ще рискуват и ще започнат да пресичат, когато системата за шофиране с AI изобщо не цели да спре (което, AI вероятно ще спре, ако пешеходецът навлиза на улицата, въпреки че това може да е грозно и физиката може да попречи на ИИ да спре самоуправляващата се кола, когато няма достатъчно време, за да избегне удрянето на привидно „грешния“ пешеходец).

Да приемем, че разработчиците на AI и фирмите, които събират и представят самоуправляващите се автомобили във вашия град, не са сигурни как да ускорят AI по този въпрос.

Те решават да „обучат“ AI върху данни, събрани от целия локал. Оказва се, че има много градски камери, които са заснели идването и излизането на колите в целия град. Тези данни показват много случаи на пешеходци, които искат да пресичат улицата по дискреционен начин. Всички данни се подават в система за машинно обучение и задълбочено обучение, за да се извлече какво се счита за обичайно в тази юрисдикция.

Обучаваме ли ИИ да прави това, което демонстрират местните етични нрави?

С други думи, ако даден град имаше местна културна склонност към спиране и пропускане на свободни пешеходци да пресичат, както се вижда от действията на водача на човека, ML/DL потенциално ще възприеме изчислително този модел. След това ИИ ще бъде обучен да прави същото. В другата крайност, ако човешките шофьори рядко спират, AI потенциално би получил този „урок“ от изчислителното анализиране на данните. Изкуственият интелект ще постъпва така, както правят хората, донякъде.

Твърдението е, че етичното поведение на хората се улавя в данните и че ИИ ще проникне в същите тези етични предписания чрез изчислителен анализ. Един етик обикновено би описал това като комунитарен подход към етиката. Споделените ценности на общността се отразяват в усилията на общността като цяло.

Това може да изглежда като модно решение.

За съжаление има много клопки.

Един може би очевиден проблем е, че човешките шофьори може вече да упражняват някаква форма на пристрастия в избора си да спрат или да не спрат (както беше споменато по-рано). Тогава ИИ ще бъде копие на тези пристрастия. Искаме ли да е така?

Помислете за друг проблем. Да предположим, че човешките шофьори не приемат лесно начина, по който работят самоуправляващите се автомобили с ИИ. Само защото човешките шофьори са били, да кажем, готови да спрат, това може да не е еднакво предполагаемо за самоуправляващите се автомобили. Възможно е шофьорите-човеци да се дразнят от самоуправляващите се автомобили с изкуствен интелект, които продължават да спират за пешеходци по усмотрение, въпреки че същото се случва от ръцете на човешки шофьори, но това изглежда не смущава човешките шофьори.

Освен че е смущаващо, можете също да предизвикате възможността човешки шофьори по невнимание да застанат отзад на самоуправляващите се автомобили. Ако човек-шофьор не е очаквал самоуправляващата се кола да спре за пешеходец и ако управляваната от човека кола е непосредствено зад самоуправляващата се кола, може да възникне ужасно несъответствие на очакванията. Системата за шофиране с изкуствен интелект спира самоуправляващата се кола. Шофьорът не е предвидил това действие. Шофьорът човек се блъска в самоуправляващата се кола. Следват наранявания и евентуално смъртни случаи.

Нарочно посочих шансовете за човешка вреда.

Пешеходецът, който пресича улицата, може да изглежда на бърз поглед като тривиален въпрос. Изглежда, че никой не може да бъде наранен от метода, който AI избере да спре или да не спре. Грешно! Има вероятност пешеходецът да бъде прегазен. Има вероятност управлявана от човека кола да се удари в самоуправляващата се кола. Шофьорът и пътниците в управляваната от човека кола могат да пострадат. Могат да се наранят ездачите в самоуправляващата се кола. Допълнителни пермутации на възможна човешка вреда са лесно предвидени.

Заключение

Говорейки за човешката вреда, ще ви дам нещо друго, за да накарате умовете си да се забързат върху тази главоблъсканица за етичен ИИ.

В новинарски материал се съобщава, че мъж е карал кола в кръстовище и е имал зелена светлина за това. Друг автомобил, управляван от хора, е избрал да мине на червената светлина на кръстовището и неправомерно и опасно влязъл безпрепятствено в кръстовището, заплашвайки да удари съдебен автомобил.

Шофьорът каза на репортери, че трябва да избере между това да поеме удара или да отклони колата си, за да се надяваме да избегне удара, но наблизо има пешеходци и действието за отклоняване може да застраши тези хора. Какво би направил? Можете да изберете да бъдете блъснати от тази задаваща се кола и може би да живеете, за да разкажете историята. Или можете да се опитате да избегнете удари, но в същото време е възможно да потиснете невинни пешеходци.

Голяма част от ежедневното ни шофиране има такива етично огромни и незабавни решения, които трябва да вземем. Обсъдих това надълго и нашироко, заедно със свързването на тези решения за шофиране на живот или смърт с известния или някои да кажем скандален проблем с количката, вижте моята разработка на връзката тук.

Заменете човешкия водач в този сценарий с AI система за шофиране.

Какво искате да направи AI?

Това е объркващ въпрос.

Един от подходите е да се програмира AI да извършва чисто движение направо, като по този начин дори не се обмислят изчислително други опции, като например отклоняване от вероятната катастрофа. Предполагам, че ездачите в самоуправляващи се автомобили ще бъдат разстроени, когато разберат, че AI не е създаден да прави нищо друго, освен да поема удара. Можете да очаквате съдебни дела и врява.

Друг подход би бил да се опита да програмира ИИ да разглежда различните възможности. Кой обаче може да установи ADM, който решава по кой път ще тръгне системата за шофиране с AI? Изглежда, че позволяването на разработчиците на AI сами да вземат толкова тежки решения е изпълнено с много опасения.

Можете да опитате да оставите AI да се „учи“ от данни за шофиране от хора, събирани от ежедневните ситуации на трафика. Това е подобно на дилемата на пешеходния прелез и на по-рано предложената идея за използване на събрани данни, за да може ИИ да събере каквито и да изглеждат местните етични нрави. Има много предупреждения за това, като например дали откритите ML/DL модели са подходящи или не и т.н.

Също така предупредих, че има вероятност ИИ да събере може би неетично поведение, в зависимост от етичните нрави. Например, да предположим, че изкуственият интелект по някакъв начин кацна по изчислителен модел, за да се насочи винаги към пешеходците, когато друга кола заплашва да удари самоуправляващата се кола.

Уау, внимавайте пешеходци, вие ще бъдете готови мишени.

Време е да приключим дискусията засега и да го направим с една окуражаваща последна мисъл.

Може би знаете, че Айзък Азимов предложи своите „Три закона на роботиката“ през 1950 г. и ние все още сме влюбени в тези прокламирани правила. Въпреки че правилата изглеждат лесно приложими, като например, че AI система или робот не трябва да навреди на човек и нито да позволява на човек да бъде наранен, има много важни нюанси, които правят това сложно и понякога несъстоятелно, вижте моя анализ в връзката тук.

Във всеки случай, ето още нещо, с което Азимов също е известен, макар и по-малко: „Никога не позволявайте на чувството ви за морал да ви пречи да направите това, което е правилно.“

За етичния AI, който всички се надяваме да изработим, трябва да имаме предвид, че етиката на AI може да не е това, което очаквахме и че по някакъв начин AI все пак ще трябва да прави каквото е правилно. Азимов го каза добре. Много преди това Аристотел изглежда е мислел доста подобни чувства.

Източник: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- случая-с-ai-в-автономни-самоуправляващи се-коли/