Етика на ИИ, която се бори с неизбежните злополуки с ИИ, които надвисват и над автономните самоуправляващи се автомобили

Може би познавате някой, който изглежда особено склонен към инциденти?

Изглежда, че всички го правим.

Може би човекът е от онзи тип, който е склонен да се подхлъзне върху бананова кора или да събори скъпоценна ваза във вашата всекидневна. Те са човешки магнит за инциденти от един или друг вид. Може да е толкова лошо, че понякога дори да ви е гадно да сте близо до тях. Може да получите зловещо преливане или да претърпите безславните последици от някоя от неприятните им злополуки.

Но може би сме прекалено груби, когато предполагаме, че някой е по-предразположен към злополуки от другите. Може да се аргументира, че инциденти могат да се случат на всеки от нас. Всички сме подложени на възможността да извършим или да бъдем замесени в злополука. Най-добрите от нас са включени.

Нека натрупаме върху тази дискусия един допълнително досаден въпрос.

Неизбежни ли са инцидентите?

С други думи, колкото и усилено да се опитваме да предотвратим злополуки, неизбежно може да се окаже, че въпреки това все още има шанс и крайна сигурност, че ще възникнат злополуки. Можете да се стремите да защитите света от злополуки. Това изглежда несъмнено разумно. Но по един или друг начин злополуките все пак ще надигнат грозната си глава.

Както се казва, инцидентите чакат да се случат.

Може да е полезно да се изясни какво се има предвид под позоваването на някакво събитие като подходящо обозначено като злополука. Обичайната дефиниция на речника е, че инцидентът е вид инцидент, който се случва неочаквано и непреднамерено, за който има неприятен резултат, който се състои от подобие на щета или нараняване.

Внимателно разопаковайте това определение.

Споменатата случка е неочаквана. Това означава, че изглежда не сме осъзнали, че самият инцидент ще възникне.

Посоченият инцидент е непреднамерен. Това предполага, че трябва да изключим обстоятелствата, при които някой умишлено е искал инцидентът да се случи. Ако шегаджия постави бананова кора на пода, където знае, че ще стъпи нещастен и нищо неподозиращ невинен, ще ви е трудно да твърдите, че човекът, който се спъваше в нея, е претърпял злополука. Вместо това те бяха измамени и подмолно въведени в капан.

Определението включва и критерия, че резултатът е жалък. Инцидентът в тази светлина трябва да доведе до кисел резултат. Човекът, който случайно е съборил ваза, се е спукал и вероятно е повредил вкусния артикул, който не може да бъде поправен. Собственикът на вазата е ощетен от загубата на стойност. Човекът, който се блъсна във вазата, сега може да дължи на собственика за загубата. Не дай боже някой да е бил отрязан или скрап от счупването на вазата.

За равновесие бихме искали да отбележим, че има и така наречените „добри“ инциденти. Човек може да се окаже в голямо богатство или да натрупа някаква друга жизненоважна облага поради резултат от злополука. Един от най-често цитираните примери се състои от сър Александър Флеминг и неговото признато откритие на пеницилин. Историята разказва, че той е бил малко небрежен в лабораторията си и след като се връща от двуседмична ваканция, е открил плесен върху една от плочите си за култура. Съобщава се, че той каза това по въпроса: „Човек понякога намира това, което не търси. Когато се събудих веднага след зазоряване на 28 септември 1928 г., със сигурност не планирах да революционизирам цялата медицина, като открия първия в света антибиотик или убиец на бактерии. Но предполагам, че точно това направих."

Ще оставим настрана благоприятните произшествия и ще се съсредоточим върху мрачните аварии. Намръщената версия на злополуките е мястото, където тези неблагоприятни резултати могат да бъдат особено животозастрашаващи или да имат тежки резултати. Доколкото е възможно, негативните инциденти, които искаме да сведем до минимум (и, разбира се, обратните злополуки, които бихме искали да максимизираме, ако това е възможно да се направи, въпреки че ще разгледам този вариант с усмивка в по-късна колона).

Бих искал леко да преформулирам предишния въпрос за неизбежността на злополуките. Досега задържахме вниманието си върху злополуките, които се случват в конкретен случай на отделно лице. Няма съмнение, че злополуките могат да засегнат множество хора наведнъж. Това може да се срещне особено, когато хората са потопени в сложна система от един или друг вид.

Пригответе се за вариант на изплувания по-рано въпрос.

Неизбежни ли са системните аварии?

Трябва да обмислим това.

Да предположим, че е предвиден фабричен етаж за производство на части за автомобили. Тези, които проектираха фабриката, са да кажем, че са изключително загрижени за произшествията на работниците, които могат да възникнат. Фабричните работници са длъжни да носят каски през цялото време. Знаците във фабриката увещават да внимавате за злополуки и да бъдете внимателни в работата си. Вземат се всякакви предпазни мерки, за да се предотвратят инциденти.

В тази система може да се надяваме, че никой никога няма да претърпи злополука. Вярвате ли, че има нулев шанс да се случи инцидент? Смея да предположа, че никой разумен мислител не би се обзаложил, че шансът за инцидент е нулев в този случай. Вероятността да се случи инцидент може да е наистина малка, но ние все още знаем и предполагаме, че въпреки всички предпазни мерки все още има малък риск да се случи инцидент.

Всичко това насочва към идеята, че в система с достатъчна сложност ние сме длъжни да вярваме, че злополуки все пак ще се случват, независимо колко усилено се опитваме да ги предотвратим. Ние неохотно се застъпваме в уговорката, че системните аварии наистина са неизбежни. Грандиозно изявление от този калибър може да има предупреждение, че системата трябва да бъде с някакъв праг на сложност, така че по същество е невъзможно да се покрият всички бази, за да се предотвратят напълно аварии.

Вече бяхте спретнато, стъпка по стъпка, запознати с широко очертаната теория за злополуките, които могат да бъдат обозначени като нормални злополуки или теория за нормални злополуки (NAT). Ето едно удобно описание от изследователи, които са изследвали това понятие: „В достатъчно голям мащаб всяка система ще доведе до „нормални аварии“. Това са неизбежни аварии, причинени от комбинация от сложност, свързване между компонентите и потенциална вреда. Нормалната авария се различава от по-често срещаните аварии на компонентите по това, че събитията и взаимодействията, водещи до нормална авария, не са разбираеми за операторите на системата“ (както е посочено в „Разбиране и избягване на AI откази: Практическо ръководство“ от Робърт Уилямс и Роман Ямполски, философии дневник).

Причината да ви докарам в земята на т.нар нормални аварии е, че може да се наложи внимателно да приложим тази теория към нещо, което постепенно и неизбежно става повсеместно в нашето общество, а именно появата на изкуствения интелект (AI).

Нека се поразровим в това.

Някои хора погрешно приемат, че AI ще бъде съвършенство. Системите с изкуствен интелект няма да правят грешки и няма да ни вкарат в неприятности, вървят спекулациите. Всичко, което трябва да направите, е да се уверите, че тези разработчици на AI вършат достатъчно добра работа и воала, AI никога няма да направи нещо, което може да се тълкува като случайно или пораждащо злополука.

Не толкова бързо на тази хипотетична вяра. Ако сте готови да купите в теорията на нормални аварии, всеки ИИ с всякаква съществена сложност неизбежно ще доведе до инцидент. Независимо от това колко късни нощни бърникане правят тези разработчици на AI, за да предотвратят инцидент, AI със сигурност в даден момент ще бъде замесен в инцидент. По този начин бисквитката се раздробява. И няма почивка, като плачем в разлятото ни мляко за това.

Помислете за комбинирането на AI и концептуалните принципи на нормални аварии.

Представете си, че имаме AI система, която контролира ядрените оръжия. AI е внимателно изработен. Всяка възможна проверка и баланс е кодирана в AI системата. Безопасни ли сме от инцидент, базиран на AI, който може да се случи? Тези, които подкрепят нормалната гледна точка за злополуките, биха казали, че не сме толкова безопасни, колкото може да се предположи. Като се има предвид, че AI вероятно ще бъде особено сложен, нормален инцидент тихо чака там, за да се появи някой ден, може би в най-лошия възможен момент.

Същността на тези трънливи въпроси и притеснения е, че трябва да сме нащрек, че ИИ непременно ще бъде натоварен с инциденти и човечеството трябва да направи нещо разумно и проактивно по отношение на опасностите, които могат да последват. Както ще видите след миг или два, това е предстоящо съображение, когато става въпрос за използване на AI, а областта на етиката на AI и етичния AI се бори доста за това какво да прави. За моето текущо и обширно отразяване на AI Ethics и Ethical AI, вж връзката тук намлява връзката тук, Само за да назовем няколко.

Преди да влезем в заешка дупка, нека се уверим, че сме на една и съща страница относно естеството на AI. Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек, който ви дава съвети. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук). Всички казано, че тези сценарии ще засилят оценката на източника.

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), което използва съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма ИИ, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

Като цяло, общата надежда е, че чрез установяване на усещане за етичните предписания на ИИ, ние поне ще можем да повишим общественото съзнание за това какво ИИ може да направи както полезно, така и неблагоприятно. Обсъдих задълбочено различни колективни анализи на етичните принципи на ИИ, включително обхванах набор, разработен от изследователи, които изследваха и кондензираха същността на многобройни национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка работят и извършват поддръжка на AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират ИИ, са обект на придържане към понятията за етиката на ИИ. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Може да се наложи да добавим към прехвалените списъци на AI Ethics, които трябва изрично да обмислим и да предприемем явни действия за предотвратяване или поне рязко смекчаване на базираните на AI нормални аварии това може да се случи. Тези, които развиват AI, трябва да дадат всичко от себе си на този фронт. Тези, които внедряват AI, трябва да направят същото. Тези, които използват или по някакъв начин са подложени на AI, трябва да бъдат предпазливи и нащрек за възможността от инциденти с AI, които привидно ще възникнат.

Може да се изкушите да си помислите, че в ИИ могат да бъдат вградени достатъчно предпазни мерки, така че шансовете за инцидент да паднат до нула. За тези, които са техници, обичайното високомерие е, че ако една част от технологията може да генерира проблем, друга част от технологията със сигурност може да реши проблема. Просто продължавайте да хвърляте все повече и повече технологии, докато проблемът изчезне.

Е, тези, които са изучавали системно-ориентирани инциденти, биха били склонни да не се съгласят и учтиво да отвърнат на предполагаемата технична помпозност, като предложат гледна точка, известна като Swiss Cheese Model (SCM): „В SCM слоевете на безопасност се моделират като резени от сирене с дупки в тях, представляващи слаби места във всеки слой на безопасност. С течение на времето дупките променят формата си и се движат. В крайна сметка, без значение колко резена сирене (слоеве на безопасност) има, дупките ще се подравнят, позволявайки направо да се изстрелят през всички резени сирене (възниква злополука)“ (съгласно по-рано цитирания документ от Робърт Уилямс и Роман Ямполски ).

Не искам да се затъвам в тази странична допирателна относно това дали има или не гарантиран начин за програмиране на AI за изцяло и винаги предотвратяване на всяка вероятност от инцидент. Има всякакви математически и изчислителни подходи за доказване, които се изпробват. Мисля, че е разумно и справедливо да заявим, че днес нямаме мащабируем работен метод, нито технологии, които могат да гарантират такъв нулев шанс, плюс ние определено сме обременени с тонове след тонове изкуствен интелект, който се произвежда безумно, че ние знам със сигурност не се е опитвал да спазва подобни практики. Последният момент е от решаващо значение, тъй като дори да можем да измислим нещо в лаборатория за изкуствен интелект, мащабирането на това до милиони диви и безгрижни AI усилия, които са в ход и това ще продължи да се появява, е възлов проблем и едва ли е решен, дори ако изчислителната машина за доказване се сребърне куршум е съществувал.

Друг момент, който смятам, че заслужава кратко споменаване, е AI, който се превръща в извършване на неблагоприятни действия в резултат на злонамерени човешки актьори. Няма да поставям тези случаи в сферата на злополуките с изкуствен интелект. Не забравяйте, че встъпителната дискусия предполага, че речниковата дефиниция за злополука е инцидент на неволно природата. Ако човешки кибермошеник успее да накара AI система да прави лоши неща, аз не класифицирам този AI като преживял злополука. Вярвам, че ще се съгласите с тази презумпция.

Възниква интересен въпрос доколко различни неблагоприятни действия на ИИ могат да бъдат приписани на чисто произшествие с ИИ срещу коварно действие на киберпрестъпник. Според някои от съществуващите AI инциденти, докладващи бази данни, изглежда, че инцидентите с AI се случват повече, отколкото злонамерено предизвиканите инциденти, въпреки че трябва да приемете това понятие с огромна доза сол. Казвам това, защото има голямо изкушение да не докладвате, когато AI система е била атакувана, и може би да бъдете малко по-склонни да докладвате, когато се случи инцидент с AI.

Има изключително важно предупреждение, което трябва да обсъдим относно произшествията с изкуствен интелект.

Използването на фразата „аварии с AI“ като цяло е нежелателно и ще създаде голяма бъркотия за всички нас, което означава за цялото общество. Когато човек може да претърпи злополука, ние често свиваме рамене и сме съчувствени към човека, който е претърпял инцидент. Изглежда, че третираме думата „злополука“, сякаш това означава, че никой не е отговорен за случилото се.

Да вземем за пример попадането в автомобилна катастрофа. Една кола се размахва широко при десен завой и случайно се забива в друга кола, която вървеше направо. Мамка му, това беше просто инцидент и се случи случайно. Онези, които не са били замесени в инцидента, може би ще оставят въпроса да се изплъзне, ако събитието се представи като просто инцидент, който се е случил.

Имам обаче чувството, че ако бяхте в колата, която беше ударена, нямаше да сте толкова съпричастни към шофьора, който направи прекалено широкия завой. Вашето мнение със сигурност би било, че другият шофьор е бил лош шофьор и че привидно незаконно или неразумно шофиране е довело до автомобилната катастрофа. Означавайки инцидента като „злополука“, шофьорът, който е заседнал, сега е в малко по-неизгодно положение, тъй като изглежда, че всичко се е случило само по случайност, а не чрез ръцете на шофьора, който е объркал.

Всъщност думата „катастрофа“ е толкова изпълнена с различни конотации, че като цяло правителствената статистика за автомобилните катастрофи отнася въпроса като автомобилни сблъсъци или автомобилни катастрофи, вместо да използва израза автомобилни катастрофи. Автомобилен сблъсък или автомобилна катастрофа изглежда нямат никакви последици за това как е станал инцидентът. Междувременно формулировката на „автомобилна катастрофа“ почти ни кара да мислим, че това е странност на съдбата или по някакъв начин извън ръцете на човечеството.

Можете много да видите как това конотационно съображение се задейства, когато се позовава на инциденти с изкуствен интелект. Не искаме разработчиците на AI да се крият зад конотационния щит, че AI просто е причинил вреда на някого. Същото важи и за тези, които внедряват AI. Можете да спорите, че формулировката на „аварии с AI“ е почти антропоморфизиране на AI, което ще подведе обществото да позволи на хората, които са били зад кулисите на AI, да избягат от отговорност. За моята дискусия относно нарастващото значение на държането на хората отговорни за техния AI, вижте дискусията ми на тази връзка тук намлява тази връзка тук.

Оттук нататък ще използвам фразата за инциденти с изкуствен интелект, но го правя неохотно и само защото това е конвенционалният начин за позоваване на този феномен. Опитите да се изрази това по различен начин са склонни да бъдат за съжаление по-раздути и не толкова лесни за четене. Моля, не забравяйте да тълкувате крилатата фраза по начин, който не ви кара да погледнете от другата страна и да не осъзнаете, че хората, стоящи в основата на AI, са виновни, когато AI се обърка.

За да илюстрираме вероятното объркване или подвеждащи аспекти от позоваването на AI като причиняващ злополуки, можем да се върнем към моите забележки относно събарянето на ваза. Помислете за този пример за AI, който прави това: „Този ​​проблем е свързан с неща, които са направени случайно или безразлично от AI. Почистващ робот, който събаря ваза, е един пример за това. Сложните среди имат толкова много видове „вази“, че е малко вероятно да можем да програмираме наказание за всички странични ефекти“ (според статията на Робърт Уилямс и Роман Ямполски).

Система за изкуствен интелект, която се използва в домакинство и след това „случайно“ събаря ваза, изглежда предполага, че никой не трябва да бъде обвиняван за това неблагоприятно действие на AI. Това беше просто злополука, може да се оплаква някой. От друга страна, с право трябва да се запитаме защо системата за изкуствен интелект не е програмирана да се справи с обстоятелството с вазата като цяло. Дори ако разработчиците на AI не са предвидили ваза сама по себе си като в обхвата на обектите, които могат да бъдат срещнати, със сигурност можем да се запитаме защо не е имало някакво всеобхватно избягване на обекти, което би попречило на системата AI да събори ваза (по този начин изкуственият интелект може да не класифицира вазата като ваза, но все пак би могъл да я избегне като откриваем обект, който трябва да се избягва).

Прогнозирах и продължавам да прогнозирам, че постепенно се насочваме към огромна съдебна битка за появата на системи за изкуствен интелект, които се вкарват в „аварии с изкуствен интелект“ и причиняват някаква форма на вреда. Досега обществото не е реагирало по какъвто и да е значителен начин на законно отблъскване на ИИ, който се изхвърля на пазара и води до неблагоприятни последици, умишлено или неволно. Днешният AI банда, която се превърна в златна треска от полуготови производители на AI и тези, които набързо предприемат внедряването на AI, имат късмет точно сега и остават относително недокоснати от граждански дела и наказателни преследвания.

Правната реакция, предизвикана от изкуствен интелект, идва рано или късно.

Продължавайки напред, как да се опитаме да се справим с неизбежността на така наречените инциденти с изкуствен интелект?

Едно нещо, което можем да направим веднага, е да се опитаме да предвидим как могат да възникнат инциденти с изкуствен интелект. Като предвиждаме инцидентите с изкуствен интелект, можем поне да се стремим да измислим средства за ограничаването им или свеждането до минимум на вероятността от възникване. Освен това можем да се опитаме да поставим мантинели, така че когато се случи инцидент с изкуствен интелект, шансовете за демонстративна вреда са намалени.

Полезен набор от фактори, описани в по-рано цитираната изследователска статия Разбиране и избягване на неуспехи на ИИ: Практическо ръководство включва тези свойства (както е цитирано от изследователския документ):

  • Системата, която е засегната от изходите на AI.
  • Закъснение във времето между изходите на AI и по-голямата система, наблюдаемост на системата, ниво на човешко внимание и способност на операторите да коригират неизправността на AI.
  • Максималната възможна вреда от злонамерено използване на системите, които AI контролира.
  • Свързване на компонентите в близост до AI и сложност на взаимодействията.
  • Пропуски в знанията за AI и други използвани технологии и енергийното ниво на системата.

В този момент на тази обилна дискусия бих се обзаложил, че желаете някои илюстративни примери, които биха могли допълнително да изяснят темата за злополуките с изкуствен интелект. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-вълнуващите области, която ярко представя тази етична AI затруднение, е появата на базирани на AI истински самостоятелно управляващи автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Появата на истински самостоятелно управляващи се автомобили, базирани на изкуствен интелект, осветлява ли нещо за появата на така наречените AI инциденти и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и инциденти с изкуствен интелект

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да се потопим дълбоко в самоуправляващите се автомобили и възможностите за етичен AI, което води до появата на така наречените инциденти с изкуствен интелект.

Представете си, че базирана на изкуствен интелект самоуправляваща се кола се движи по кварталните улици и изглежда шофира безопасно. Отначало сте отделяли специално внимание на всеки път, когато сте успели да зърнете самоуправляващата се кола. Автономното превозно средство се открояваше със своя багажник от електронни сензори, включващи видеокамери, радарни устройства, LIDAR устройства и други подобни. След много седмици на самоуправляващата се кола, която пътува из общността ви, сега почти не го забелязвате. Що се отнася до вас, това е просто още една кола по вече натоварените обществени пътища.

За да не мислите, че е невъзможно или неправдоподобно да се запознаете с виждането на самоуправляващи се автомобили, често съм писал за това как локалите, които са в обхвата на изпробването на самоуправляващи се автомобили, постепенно свикват да виждат усъвършенстваните превозни средства. Много от местните жители в крайна сметка преминаха от зяпащи уста, възторжени погледи към сега излъчващи обширна прозявка на скука, за да станат свидетели на тези криволичещи самоуправляващи се коли.

Вероятно основната причина в момента, поради която могат да забележат автономните превозни средства, е поради фактора на дразнене и раздразнение. Стандартните системи за шофиране с изкуствен интелект гарантират, че автомобилите спазват всички ограничения на скоростта и правилата за движение. За забързаните човешки шофьори в традиционните им коли, управлявани от хора, понякога се дразните, когато сте заседнали зад строго спазващите закона самоуправляващи се автомобили, базирани на AI.

Това е нещо, с което всички ние може да трябва да свикнем, с право или погрешно.

Обратно към нашата приказка.

Един ден самоуправляващата се кола попада в катастрофа.

Докато правеше десен завой, системата за шофиране с изкуствен интелект замахна широко автономното превозно средство и беше ударен автомобил, управляван от човек. Управляваната от човека кола се движеше направо в правилната лента за движение. Нямаше особена възможност за човешкия водач да завие или да избегне удар. Освен това нямаше предупреждение или индикация от самоуправляващата се кола, че ще направи широко завой в правилния завой.

Това инцидент ли е?

Със сигурност можем да кажем, че това е включено в рубриката на инцидент с изкуствен интелект. Основанието за такова твърдение е, че е имало система за шофиране с изкуствен интелект на волана на самоуправляващата се кола. Някак си, по каквито и да е причини, AI избра да направи широк замах при завой надясно. Резултатът доведе до това, че самоуправляващата се кола се удари в автомобил, управляван от човек.

Припомнете си предишната дискусия за конотациите, свързани с думата „злополука“, и вижте как подобни оттенъци се проявяват в този сценарий. Също така, не забравяйте, че обсъждахме случая на шофьор, който прави широк десен завой и се сблъсква с кола, управлявана от човек. Разбрахме, че представата, че този акт е „злополука“ е подвеждаща и объркваща. Шофьорът-човек, който направи широката люлка, можеше да се скрие зад идеята, че се е случила катастрофа, която привидно е била случайност или капризи на съдбата.

Вместо да обозначаваме сценария като „произшествие с изкуствен интелект“ в случай на базирана на изкуствен интелект самоуправляваща се кола, която се разпростира и удари управляваната от човека кола, може би трябва да кажем, че това е автомобилна катастрофа или автомобилен сблъсък, включващ самоуправление шофиращ автомобил и автомобил, управляван от човек. Тогава можем да се откажем от празното объркване, че това е случайност с непознаваеми средства.

Каква според вас би била обществената реакция на инцидента?

Е, ако автомобилният производител или технологичната фирма за самостоятелно шофиране могат да се придържат към етикетирането на въпроса като злополука, те може да успеят да заобиколят потенциалната реакция от общността като цяло. Чувство на съчувствие към всички разказани произшествия вероятно ще се влее в конкретното обстоятелство. За повече информация относно това как градовете, окръзите и държавните лидери потенциално ще реагират на инциденти с автономни превозни средства с изкуствен интелект, вижте дискусията на проучване на Харвард, което ръководих аз и както е описано в връзката тук.

Ако ситуацията е ясно описана като автомобилна катастрофа или автомобилен сблъсък, може би това може да позволи да се разбере, че някой или нещо може би е виновен за инцидента. Реакцията на коляното може да бъде, че AI трябва да бъде държан отговорен. Работата е там, докато или ако някога решим да назначим AI като притежаващ подобие на юридическо лице, вие няма да можете да прехвърлите отговорността върху AI per se (вижте дискусията ми за AI и юридическото лице на връзката тук).

Можем да проверим системата за шофиране с изкуствен интелект, за да се опитаме да разберем какво е довело до привидно неподходящо шофиране и последвалата автомобилна катастрофа. Това обаче не означава, че AI ще бъде държан отговорен. Отговорните страни включват разработчиците на AI, оператора на автопарка на самоуправляващата се кола и други. Включвам и други, тъй като има вероятност градът да бъде държан частично отговорен за дизайна на ъгъла, където е бил завоят. В допълнение, да предположим, че пешеходец се е стрелял от ъгъла и системата за шофиране с изкуствен интелект е избрала да избегне лицето и все пак след това се е забъркала в автомобилната катастрофа.

И така нататък.

Заключение

Бихме искали да знаем какво изчислява AI изчислително и какво е програмиран да прави. AI направи ли така, както беше кодиран? Може би AI е срещнал бъг или грешка в програмирането, което не оправдава действията, но дава повече представа за това как е възникнал сривът.

Какъв вид AI предпазни перила са програмирани в системата за шофиране с AI? Ако имаше мантинели, бихме искали да разберем защо изглежда, че не предотвратяват автомобилната катастрофа. Може би системата за шофиране с изкуствен интелект би могла да спре, вместо да направи завоя. Бихме искали да знаем какви алтернативи AI изчисли изчислително оцени по време на инцидента.

Освен да стигнем до дъното на конкретния инцидент, друго основателно притеснение е дали системата за шофиране с AI има недостатък или друг вграден аспект, който ще извърши подобни видове неблагоприятни действия. По същество този инцидент може да е издайнически индикатор за още много неща. Как бяха използвани компютърно базирани симулации на ситуации на шофиране, за да се опитат да предвидят този тип подкана на системата за шофиране с изкуствен интелект? Имаше ли достатъчно изпити за шофиране на пътя, за да се открият проблемите с AI, които може да са довели до автомобилната катастрофа?

Този сценарий подчертава спорна главоблъсканица, която е изправена пред появата на самоуправляващи се автомобили, базирани на AI.

Става така.

От една страна, съществува общественото желание за бързо приемане на самоуправляващи се автомобили поради надеждата, че системите за шофиране с AI ще бъдат толкова безопасни или вероятно по-безопасни от човешките шофьори. Само в Съединените щати в момента имаме близо 40,000 2.5 човешки смъртни случаи годишно поради автомобилни катастрофи и около XNUMX милиона човешки наранявания. Анализите показват, че значителна част от тези автомобилни катастрофи се дължат на човешка грешка, като шофиране в нетрезво състояние, шофиране в разсеяност и т.н. (вижте моята оценка за такива статистически данни на връзката тук).

Системите за шофиране с AI няма да пият и да шофират. Те няма да се нуждаят от почивка и няма да се износват, докато са на волана. Предположението е, че чрез установяване на самоуправляващите се автомобили като жизнеспособен вид транспорт, можем да намалим броя на шофьорите. Това от своя страна би трябвало да означава, че ще намалим обобщено броя на годишните човешки смъртни случаи и наранявания от автомобилни катастрофи.

Някои експерти казаха, че в крайна сметка ще имаме нулеви смъртни случаи и нулеви наранявания, а тези самоуправляващи се автомобили се предполага, че няма да бъдат катастрофирани, но това е напълно абсурден и напълно фалшив набор от очаквания. Обясних защо това е толкова неискрено в връзката тук.

Във всеки случай приемете, че ще имаме известно количество автомобилни катастрофи, в които се замесват самоуправляващите се автомобили. Да предположим също, че тези автомобилни катастрофи ще имат известно количество смъртни случаи и наранявания. Въпросът, който се мъчи, е дали ние като общество изобщо сме готови да толерираме подобни случаи. Някои казват, че ако дори един смъртен случай или едно нараняване се случи в резултат на истински самоуправляващи се автомобили, целият комплект и kaboodle трябва да бъдат закрити.

Уравновесяващата гледна точка е, че ако спасените животи намаляват годишния брой, трябва да продължим да насърчаваме появата на самоуправляващи се автомобили и да не реагираме по такъв нелогичен начин. Ще трябва да приемем предпоставката, че известно количество смъртни случаи и наранявания все още ще съществуват, дори при самоуправляващите се автомобили, и все пак да осъзнаем, че годишният брой, ако бъде намален, предполага, че сме на прав път.

Разбира се, някои твърдят, че не трябва да имаме самоуправляващи се автомобили по нашите обществени пътища, докато не бъдат разрешени за такава употреба в резултат на обширни и изчерпателни компютърно базирани симулации или чрез частно тестване на затворена писта. Контрааргументът е, че единственият жизнеспособен и най-бърз начин да се движат самоуправляващите се автомобили е чрез използване на обществени пътища и че всяко забавяне в приемането на самоуправляващи се автомобили в противен случай ще позволи да продължат ужасяващите преброявания на катастрофи, управлявани от човек. Обхванах по-подробно този дебат в моите колони и призовавам читателите да разгледат тези дискусии, за да получат пълния смисъл на гледните точки по този спорен въпрос.

Нека приключим нещата засега.

Ще се случат инциденти с изкуствен интелект. Трябва да се противопоставим на импулса да тълкуваме инцидент с изкуствен интелект като привиден случайно и следователно фалшиво нека създателите и тези, които внедряват AI, да бъдат категорично изключени.

Има допълнителен обрат, който ви оставям като последна интригуваща мисъл за вашия ден.

Съобщава се, че комикът Дейн Кук е разказал тази шега за автомобилните катастрофи: „Преди няколко дни попаднах в автомобилна катастрофа. Не съм виновен. Дори и вината да не е ваша, другият слиза от колата си и ви гледа така, сякаш сте виновен: Защо спряхте на червен светофар и ме оставихте да ви ударя, правейки 80!“

Там, където обратът излиза на преден план, е възможността дадена AI система да избере да настоява, че когато се случи инцидент с AI, включващ този конкретен AI, AI рекламира, че инцидентът е по вина на човека и със сигурност не по вина на AI. Между другото, това може да е напълно вярно и човекът може да се опитва да изкупи ИИ, като твърди, че това е по вина на ИИ.

Или може би AI се опитва да изкупителната жертва на човека.

Виждате ли, изкуственият интелект, който създаваме, може да бъде труден по този начин, случайно или не.

Източник: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- шофиране-коли-също/