Уроци по етиката на изкуствения интелект и автономните системи, извлечени от този неотдавнашен полет на Alaska Airlines, при който пилотът и вторият пилот не са съгласни преди излитането и внезапно са избрали да се върнат с такси до терминала и да тръгнат по различни пътища

Авиокомпаниите са в новините доста напоследък.

Ние сме в лятната криза на полети. Уморените и разочаровани пътници се оказват изправени пред всякакви прекъсвания на полетите и изкривявания в графика на авиокомпаниите. Полетите се отменят неочаквано. Полетите закъсняват. Дим на пътниците. За съжаление е имало много случаи на пътници, които са позволили на тези неприятности да избухнат, и сме виждали твърде много вирусни видеоклипове на директни сблъсъци и понякога юмручни битки.

По-рядко научаваме за спорове между пилот и втори пилот, които могат да възникнат в пилотската кабина.

Това е доста изненада.

Наистина, естествено сме изненадани да мислим, че пилот и втори пилот биха имали някакво подобие на сериозно несъгласие по време на всеки етап от полета. Ако несъгласието е свързано с това коя марка кафе е най-добра, нашето предположение е, че това няма да се намеси в работните усилия, свързани с управлението на самолета. Двамата просто биха отхвърлили липсата си на директен разговор по привидно неподходяща за полета тема. Тяхното професионално поведение и дългогодишно обучение на пилоти щяха да влязат в сила и те отново щяха да насочат вниманието си към подробностите за полета.

Помислете обаче, когато a професионално несъгласие се намесва.

Ще споделя накратко с вас новина, широко публикувана за скорошен случай на нещо, случило се по време на полет в САЩ, свързано с твърдяно професионално несъгласие в пилотската кабина.

Това се цитира основно тук, за да можем да изследваме свързана тема, която е от голямо значение за появата на изкуствения интелект (AI). Виждате ли, може да има форма на, да кажем, професионално несъгласие между не само хора в разногласие между хора, но също така можем да имаме нещо подобно да се случи сред приемането на AI и следователно произтичащите професионални разногласия човек срещу AI . Възникват всякакви съображения относно етиката на ИИ. За моето обширно и текущо отразяване на етиката на ИИ и проблемите, свързани с етичния ИИ, вижте връзката тук намлява връзката тук, само за да назовем само няколко.

Пригответе се за една завладяваща приказка.

Както наскоро беше съобщено в новините, случай на „професионално несъгласие“ очевидно е възникнал по време на полет на авиокомпания Alaska Airline, който пътува от Вашингтон за Сан Франциско. Според новините самолетът се е отдалечил от портата и е чакал на асфалта за разрешение да рулира и да полети. Разрази се буря, която доведе до закъснение на полета с повече от час и половина. Оказва се, че самолетът в крайна сметка се е обърнал и се е насочил обратно към портата, което някои от пътниците обикновено биха предположили, че е просто предпазна мярка, свързана с буря.

Според различни туитове изглежда, че пилотът и вторият пилот са имали някаква вражда по време на престоя си там в пилотската кабина и по някакъв начин са стигнали до заключението, че най-разумният подход би бил да изчистят полета и да се върнат на терминала . Туитове предполагат, че капитанът и първият офицер очевидно не могат да се разбират помежду си. По-късно авиокомпанията излезе с изявление, че ситуацията е неблагоприятна (ситуацията не е изрично заявена или обяснена сама по себе си), двамата летателни офицери са оценени от ръководството и са счетени за годни да летят, екипажите са разменени и полетът в крайна сметка се състоя и по-късно стигна до Сан Франциско.

В известен смисъл, ако действително пилотът и вторият пилот са имали професионално несъгласие, като например дали самолетът е бил подходящо готов за полет или дали рискът от полет през буря е бил в рамките на подходящ диапазон на безопасност, тези пътници трябва да бъдат облекчени и благодарен, че самолетът беше върнат на портата. По-добре да сте в безопасност, отколкото да съжалявате. Наличието на допълнително забавяне си заслужава предполагаемото намаляване на рисковете, свързани с смятано за тежко или неблагоприятно пътуване със самолет.

Някои хора може да се изненадат, че може да възникне подобно професионално разногласие.

Може би имаме погрешно впечатление, че всичко, което се случва в пилотската кабина, е напълно точно и добре написано. Всички форми на човешка преценка изглежда са били изтръгнати от процеса. Въз основа на прецизни и щателно изчислени карти, полетът или може да продължи, или не. Не може да има никакво разногласие, когато се смята, че целият комплект и измама се основават на неопровержимо пресмятане на факти и цифри.

Това не е цялата истина по въпроса. Разбира се, има множество протоколи и всякакви проверки и баланси, но това не изтръгва цялата йота човешка преценка. Пилотите и вторите пилоти все още упражняват човешка преценка. За щастие, тази човешка преценка е усъвършенствана от години летене. Шансовете са, че пилот и втори пилот в търговски пътнически самолет имат много предишен опит в полетите и лесно се възползват от многогодишните си задълбочени разсъждения и преценка, свързани с управлението на полета.

Като се има предвид забележителната роля на човешката преценка, бихме могли логично да предвидим, че пилотът и вторият пилот понякога ще имат професионални разногласия. През повечето време се предполага, че има много малко такива несъгласия. Пилотът и вторият пилот за ежедневните полети вероятно ще бъдат добре подравнени в преобладаващото време. Само когато сценарият на полет може да излезе извън конвенционалните граници, бихме очаквали да възникне по-напрегнато триене.

Ако има силна разлика в мненията между двамата, бих се осмелил да кажа, че искаме те да го разкрият.

Представете си ситуация, при която пилотът настоятелно иска да продължи, но вторият пилот разбира, че рисковете са твърде високи. Просто вторият пилот да се кланя на пилота би изглеждало нежелателно. Вторият пилот е проверка и баланс на това, което един пилот може да си помисли да направи. За тези, които искат вторият пилот да млъкне и да действа само безсмислено според постановленията на пилота, това не е кой знае какво успокоение. Вторият пилот не е просто резервен „пилот“, който влиза в картината само когато пилотът е напълно недееспособен. Това е погрешно разбиране за стойността на наличието на пилот и втори пилот в пилотската кабина.

Това има и друг ъгъл.

Помислете за случая с пилот, който не вярва, че полетът трябва да продължи, а междувременно вторият пилот е пламенен да се издигне във въздуха. Какво тогава? Според очакваната йерархия се предполага, че пилотът конвенционално надделява над втория пилот. Определената роля да бъде основен отговорник прави пилота по-велик от това, което иначе е донякъде равностойно. Обикновено пилотът разполага с повече време за полет от втория пилот и следователно вторият пилот йерархично трябва да се съобразява с желанията на пилота (когато е в разумни граници).

Във всеки случай, мисля, че всички можем да се съгласим, че изборът да не летиш със сигурност е по-малко рисков избор от решението да летиш. След като самолетът се издигне във въздуха, нивата на риск стават огромни в сравнение с намирането на обикновена стабилна земя. Обичаен търговски полет, който просто рулира обратно до терминала, без да се е качил във въздуха, би бил доста приятелско решение на всеки разгорещен остър дебат относно полет.

Нека сменим скоростите и да използваме тази нахална новина за съвсем различна, но относителна цел.

Постепенно сред нас преобладават базирани на ИИ автономни системи. Понякога AI управлява шоуто, така да се каже. ИИ прави всичко от А до Я и можем да тълкуваме това като ИИ, който е напълно автономен или почти такъв. В други случаи можем да имаме AI, който взаимодейства с и до известна степен е програмиран да разчита на наличието на човек в цикъла.

Бих искал да се съсредоточа върху въпроса за автономна или полуавтономна система, базирана на AI, която от самото начало има човек в цикъла. AI и човекът умишлено са събрани заедно и се предполага, че работят в тандем един с друг. Те са кохорти при изпълнение на определена задача. Не се предполага, че AI сам действа по задачата. AI трябва да взаимодейства с определения човек в цикъла.

Изтъквам тази характеристика, за да се разгранича от ситуации, в които човекът в цикъла се счита за незадължителен аспект. По същество AI получава свобода на действие. Ако изкуственият интелект избере да използва човека, така да бъде. Няма изискване AI да докосва базата или да работи ръка за ръка с определения човек. Анализите, които ще разкажа, със сигурност са подходящи за този вид по избор споразумение за взаимодействие, но не е това, към което конкретно се стремя в тази конкретна дискусия.

Добре, значи имаме някаква задача, върху която човек и AI ще работят заедно, неотлъчно един от друг. В абстрактен смисъл имаме човек, който седи на едната седалка, а AI система седи на другата съпътстваща седалка. Казвам това нахално, защото не ограничаваме тази дискусия до робот например, който всъщност може да седи на седалка. Метафорично се позовавам на идеята, че ИИ някъде участва в задачата, както и човекът. Физически тяхното местонахождение не е особено важно за дискусията.

Може да не сте сигурни кога може да възникне подобно обстоятелство.

Лесна работа.

По-късно ще обсъдя появата на автономни превозни средства и самоуправляващи се коли. При определени нива на автономност, ИИ и човекът трябва да работят заедно. AI може да управлява колата и да поиска човекът да поеме управлението на шофирането. Човекът може да управлява колата и да активира AI, за да поеме управлението. Те се редуват на управлението.

В допълнение, някои дизайни имат AI да бъде по същество активен през цялото време (или, освен ако не е изключен), така че AI винаги да е в готовност. Освен това изкуственият интелект може директно да се намеси, дори без човекът да пита, в зависимост от ситуацията, която се развива. Да предположим например, че човекът изглежда е заспал зад волана. Тъй като човекът изглежда не може да активира AI (тъй като човекът спи), AI може да бъде програмиран да поеме контрола от човека.

Някои дизайни въвеждат AI и хората в двоен подход на управление. AI шофира и човекът шофира. Или, ако предпочитате, човекът шофира и AI също шофира. Всеки от тях управлява автомобила. Оприличавам това на онези специално оборудвани коли, които може би сте използвали, когато сте ходили на обучение за шофьори и в превозното средство имаше два комплекта контроли за шофиране, един за шофьора ученик и един за инструктора по шофиране.

Това е само един пример за обстановка, в която AI и хората могат да работят съвместно по задача. Съществуват всякакви възможности. Други видове автономни превозни средства могат да бъдат създадени по подобен начин, като самолети, дронове, подводници, надводни кораби, влакове и т.н. Не е нужно да вземаме предвид само автомобилните и транспортните настройки. Представете си медицинската област и операциите, които се извършват съвместно от лекар и AI система. Списъкът е безкраен.

Почти ми се иска да се позова на класическата шумна шега за човек и AI, които влизат в бар заедно. Това е доста смешно за тези, които се интересуват от AI.

Сериозно, нека се върнем към фокуса на човек и AI система, които работят заедно по дадена задача. Първо, искам да избегна антропоморфизирането на AI, което е нещо, което ще подчертая навсякъде. AI не е разумен. Моля, имайте това предвид.

Ето нещо за размисъл: Винаги ли определен човек в цикъла ще бъде напълно съгласен с ИИ, работещ съвместно?

За всяка сложна задача изглежда малко вероятно човекът и ИИ да бъдат изцяло и винаги напълно в крак. В някои случаи е възможно човекът да не се съгласи с ИИ. Можем да приемем това предположение чак до банката.

Бих искал да обмислите и тази може би изненадваща възможност: Винаги ли AI ще бъде напълно съгласен с определен човек в цикъла?

Отново, за всяка сложна задача би изглеждало напълно възможно AI да не е в съгласие с хората в някои случаи. Ако вече клоните към идеята, че изкуственият интелект трябва винаги да греши, докато хората винаги трябва да са прави, би било разумно да преосмислите това прибързано заключение. Представете си автомобил, в който човек и AI управляват съвместно полуавтономното превозно средство. Човекът се насочва към тухлена стена. Защо? Не знаем, може би човекът е в нетрезво състояние или е заспал, но знаем, че да се блъскаш в тухлена стена не е добра идея при всички останали условия. AI може да открие предстоящото бедствие и да се опита да се отклони от предстоящата бариера.

Като цяло ще имаме отчетливата възможност ИИ и човека да не са съгласни един с друг. Другият начин да се каже същото е, че хората и ИИ не са съгласни помежду си. Обърнете внимание, че не искам последователността на AI-и-човек срещу човек-и-AI да подсказва нещо за посоката или правдоподобността на несъгласието.

Двамата работници, един човек и един, който е AI, не са съгласни един с друг.

Можем предварително да декларираме, че когато възникне разногласие между даден ИИ и даден човек, ние предварително обявяваме, че човекът надделява над ИИ. Като се има предвид това, моят илюстративен пример за колата, която се насочва към тухлена стена, изглежда ще ни разубеди, че човекът винаги непременно ще бъде прав.

Бихме могли, за разлика от това, да изберем да декларираме предварително, че когато възникне несъгласие, ние ще сме установили предварително, че ИИ е прав, а човекът греши. Това също не е разумно обобщаваща разпоредба. Представете си кола, в която AI има някаква вградена софтуерна грешка или бъг и AI се опитва да насочи превозното средство извън пътя и в канавка. Ако приемем, че всичко останало е равно, човекът трябва да може да преодолее това действие на шофиране на ИИ и да предотврати кацането на превозното средство в дерето.

Нека направим кратко обобщение на това:

  • Винаги ли човекът в цикъла ще бъде напълно съгласен с ИИ? Отговор: Не.
  • Винаги ли AI ще бъде напълно съгласен с човек в цикъла? Отговор: Не.
  • Винаги ли човекът в цикъла ще бъде прав в сравнение с ИИ? Отговор: Не е задължително.
  • Винаги ли AI ще бъде прав в сравнение с човека в цикъла? Отговор: Не е задължително.

Със сигурност можете да настроите изкуствения интелект да се счита по подразбиране за „грешна“ или по-слаба страна и следователно винаги да се подчинява на човека, когато възникне несъгласие. По същия начин можете да настроите AI да приема, че AI се счита за „правилен“, когато човек не е съгласен с AI. Искам да изясня, че можем да направим това програмно, ако желаем. Твърдя обаче, че като цяло това не винаги ще бъде така. Със сигурност има настройки, в които не знаем предварително дали ИИ е „прав“ или човекът е „прав“ по отношение на избора към едното или другото при несъгласие, свързано с дадена задача.

Доведох ви до много важен и много сложен въпрос.

Какво трябва да направим, когато възникне професионално несъгласие между човека в цикъла и AI (или, еквивалентно, можем да изразим това като между AI и човека в цикъла)?

Не се опитвайте да избягвате въпроса.

Някои може да възразят, че това никога няма да се случи, но както посочих в моя пример за колата, със сигурност може да се случи. Някои може да възразят, че човекът е очевидно по-висш и трябва да бъде победител от всяко несъгласие. Моят пример с колата и тухлената стена събаря този. Има привърженици на AI, които може да настояват, че AI трябва да бъде победител, поради привидното преодоляване на човешките емоции и безсмисленото мислене от тези случайни хора с размито мислене. Още веднъж, другият ми пример, включващ насочване на колата към канавката, подкопава това твърдение.

В реалния свят изкуственият интелект и хората няма да са съгласни, дори когато двамата нарочно са поставени в екипна ситуация, за да изпълнят съвместно поета задача. Ще се случи. Не можем да заровим главите си в пясъка и да се преструваме, че няма да се случи.

Видяхме, че хората, пилотиращи самолета, очевидно са се разбрали. За щастие, те се съгласиха да не са съгласни, така изглежда. Върнаха самолета на терминала. Те намериха начин да се справят с несъгласието. Разрешаването на тяхното несъгласие се получи добре, в сравнение с това, ако може би са се сбили в пилотската кабина или може би са излетели във въздуха и са продължили да се борят един с друг. Това е печален сценарий, който е несъстоятелен и можем да бъдем благодарни, че не се случи.

Позволете ми да предоставя моя списък с различните начини, по които могат да бъдат разрешени разногласията между AI и човек в цикъла (или човек в цикъла и AI):

  • AI и екипираният човек решават нещата (приятелски или не)
  • Човекът преобладава над AI по подразбиране
  • AI преобладава над човека по подразбиране
  • По подразбиране преобладава друга предварително определена фиксирана резолюция
  • Човекът на трета страна е включен и тяхното указание има предимство пред страните
  • AI на трета страна е включен и неговата индикация има предимство пред страните
  • Човек от трета страна замества съществуващия човек, нещата продължават наново
  • AI на трета страна заменя съществуващия AI, нещата продължават наново
  • Човек от трета страна заменя съществуващия AI, нещата продължават наново (сега от човек на човек)
  • AI на трета страна заменя съществуващия човек, нещата продължават наново (сега AI към AI)
  • Други

Те са напълно достойни да бъдат разопаковани.

Преди да се впуснем в още малко месо и картофи относно дивите и вълнисти съображения, които стоят в основата на това как да се справяме с AI и човешките разногласия, нека изложим някои допълнителни основи по дълбоко важни теми. Трябва накратко да се потопим в етиката на изкуствения интелект и особено появата на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка извършват и поддържат AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират AI, подлежат на придържане към понятията за етика на AI. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека се върнем към нашия фокус върху разногласията между AI и човека.

По-рано посочих, че това са някои от стратегиите за разрешаване на несъгласия:

  • AI и екипираният човек решават нещата (приятелски или не)
  • Човекът преобладава над AI по подразбиране
  • AI преобладава над човека по подразбиране
  • По подразбиране преобладава друга предварително определена фиксирана резолюция
  • Човекът на трета страна е включен и тяхното указание има предимство пред страните
  • AI на трета страна е включен и неговата индикация има предимство пред страните
  • Човек от трета страна замества съществуващия човек, нещата продължават наново
  • AI на трета страна заменя съществуващия AI, нещата продължават наново
  • Човек от трета страна заменя съществуващия AI, нещата продължават наново (сега от човек на човек)
  • AI на трета страна заменя съществуващия човек, нещата продължават наново (сега AI към AI)
  • Други

Време е да ги разопаковате.

Първо, помислете, че това е всичко професионален разногласия.

Професионалното несъгласие се дефинира свободно като несъгласие, свързано със задача, свързана с работата.

Например, несъгласие, което възниква между пилот и втори пилот относно това дали да продължи с полет, който е изправен пред буря, може разумно да бъде обозначено като професионално несъгласие. За разлика от това, яростното несъгласие относно това коя марка кафе препоръчва пилотът спрямо марката, която вторият пилот предпочита, лесно се категоризира като непрофесионално разногласие в този конкретен контекст.

Разбира се, ако непрофесионално разногласие си проправи път в професионално разногласие, в крайна сметка може да се интересуваме от непрофесионалното разногласие като предполагаем източник или искра за професионалното. Представете си, че пилот и втори пилот спорят горчиво коя марка кафе е най-добрата, което след това, за съжаление, прелива в специфични за полета притеснения (игра на думи!), като например дали да излети или не.

Второ, трябва да имаме предвид мащаба на професионалните несъгласия.

Може би пилотът и вторият пилот или в леко несъгласие относно продължаването на полета. Те не се карат и просто обмислят плюсовете и минусите дали да излетят. Това не е калибърът или мащабът на професионалното несъгласие, което обикновено разглеждаме тук. Работата е там, че може професионалното разногласие да е преходно и двете страни да постигнат решение сърдечно или поне навреме. Като цяло фокусът на професионалните разногласия в рамките на обхвата са тези, които изглеждат неразрешими, и двете страни остават непоколебимо в разногласия.

Трето, обикновено трябва да има нещо сериозно на линия, за да влязат в действие тези насоки.

Изборът да летите или да не летите определено е решение на живот или смърт, ако полетът е изложен на риск поради буря или самолетът се счита за не напълно подготвен за такова пътуване. Това е сериозна работа. Все още можем да приложим насоките към по-малко въздействащите професионални разногласия, въпреки че може да е повече безпокойство, отколкото си струва.

Добре, нашите съображения са следните:

  • Несъгласието е основно професионално ориентирано, а не върху нещо непрофесионално
  • Разногласието е от продължителен характер, а не просто преходно или по друг начин лесно разрешено
  • Несъгласието предсказва сериозни последствия и обикновено е с въздействащ изход
  • Страните са враждуващи и изглеждат неразрешими

Нека сега разгледаме по-подробно всяка от предложените от мен насоки или подходи относно това как да се справяме с такива професионални разногласия.

AI и екипираният човек решават нещата (приятелски или не)

Започвам списъка с директната възможност, че AI и човекът в цикъла са в състояние да разрешат професионалните разногласия помежду си. Изглежда, че може би примерът с двамата хора, пилотът и вторият пилот, илюстрира този вид обстоятелство. Те по някакъв начин решиха да се върнат на терминала и да тръгнат по различни пътища. Възможно е AI система и човек да са в състояние да разберат разрешаващ подход, който като цяло е задоволителен и за двете страни, и по този начин въпросът е задоволително приключен.

Човекът преобладава над AI по подразбиране

Когато настройваме AI, можем да програмираме правило, което казва, че човекът в цикъла винаги ще надделява, когато възникне професионално несъгласие. Това ще бъде изрично кодираната стойност по подразбиране. Може също така да позволим някаква форма на отмяна, за всеки случай, въпреки че постоянното правило ще бъде, че човекът надделява.

AI преобладава над човека по подразбиране

Когато настройваме AI, може да програмираме правило, което казва, че AI винаги ще надделява над човека в цикъла, когато възникне професионално несъгласие. Това е изрично кодираната стойност по подразбиране. Може също така да позволим някаква форма на отмяна, за всеки случай, въпреки че постоянното правило ще бъде, че AI преобладава.

По подразбиране преобладава друга предварително определена фиксирана резолюция

Когато настройваме AI, можем да програмираме правило, което казва, че някаква друга предварително определена фиксирана резолюция ще преобладава, когато възникне професионално несъгласие с човека в цикъла. Човекът в цикъла не надделява по подразбиране. AI не преобладава по подразбиране. Има друга предварително определена резолюция. Например, може би има хвърляне на монета, която ще се използва, за да се реши коя от двете страни се счита за правилния път. Това очевидно би изглеждало доста произволно; по този начин друг примерен подход би бил, че се включва специализирано правило, което изчислява стойност въз основа на входове от двете страни и достига до резултат като тайбрек.

Човекът на трета страна е включен и тяхното указание има предимство пред страните

При професионално несъгласие, правило може да бъде, че трета страна, която е човек, се извиква и включва в обстановката, за да вземе решение за разрешаване на несъгласието. Изкуственият интелект е програмиран да се съобразява с това, което третата страна реши. Човекът, който вече е в цикъла човек в цикъла, е инструктиран предварително, че ако възникне такава ситуация, той също трябва да отстъпи на човека трета страна. Като настрана, вероятно можете да предвидите, че човекът в цикъла може да изпитва тревога да приеме каквото и да реши човекът от трета страна, ако решението не е в съответствие с позата на човек в цикъла.

AI на трета страна е включен и неговата индикация има предимство пред страните

При професионално несъгласие, правило може да бъде, че трета страна, която е различна AI система, се извиква и се включва в настройката, за да вземе решение за разрешаване на несъгласието. Оригиналният AI е програмиран да се съобразява с това, което AI на трета страна реши. Човекът, който вече е в цикъла човек в цикъла, е инструктиран предварително, че ако възникне такава ситуация, той също трябва да се отдаде на ИИ на трета страна. Като настрана, вероятно можете да предвидите, че човекът в цикъла може да изпитва тревога да се присъедини към каквото ИИ на трета страна реши, ако решението не е в съответствие с позицията на човек в цикъла.

Човек от трета страна замества съществуващия човек, нещата продължават наново

При професионално несъгласие човекът в цикъла се заменя от трета страна, която е човек и която отсега нататък става човек в цикъла. Човекът, който е бил първоначалният човек в цикъла за задачата, вече не се счита за част от настоящата задача. Това е открит аспект относно това, което иначе се случва с вече заменения човек в цикъла, но ние казваме, че със сигурност те вече нямат текуща роля в работната задача.

AI на трета страна заменя съществуващия AI, нещата продължават наново

При професионално несъгласие, ИИ се заменя с ИИ на трета страна и това става оттук нататък ИИ, използван за съответната работна задача. AI, който първоначално е бил използван за задачата, вече не се счита за част от настоящата задача. Това е отворен аспект относно това, което иначе се случва с вече заменения AI, но ние казваме, че със сигурност AI вече няма никаква текуща роля в работната задача.

Човек от трета страна заменя съществуващия AI, нещата продължават наново (сега от човек на човек)

При професионално несъгласие изкуственият интелект се заменя от човек от трета страна, за когото този човек сега се счита за съвместна страна, която ще бъде използвана за съответната работна задача. AI, който първоначално е бил използван за задачата, вече не се счита за част от настоящата задача. Това е отворен аспект относно това, което иначе се случва с вече заменения AI, но ние казваме, че със сигурност AI вече няма никаква текуща роля в работната задача. Накратко, сега това се превръща в двустранна задача, изпълнявана от човек на човек.

AI на трета страна заменя съществуващия човек, нещата продължават наново (сега AI към AI)

При професионално несъгласие човекът в цикъла се заменя с изкуствен интелект на трета страна и този AI отсега нататък се превръща в допълнение към предходния човек в цикъла. Човекът, който е бил първоначалният човек в цикъла за задачата, вече не се счита за част от настоящата задача. Това е открит аспект относно това, което иначе се случва с вече заменения човек в цикъла, но ние казваме, че със сигурност те вече нямат текуща роля в работната задача. Накратко, сега това се превръща в двустранно AI-to-AI за изпълнение на задачата.

Други

Могат да бъдат измислени и други варианти, за да се справят с професионално несъгласие, но тук сме покрили някои от ключовите камъни.

Как да решим кой от тези подходи ще бъде правилният за дадена ситуация?

Голямо разнообразие от проблеми е свързано с вземането на такъв избор. Има технологични съображения. Има бизнес съображения. Има правни и етични съображения.

До известна степен това е причината етиката на ИИ и етичният ИИ да е толкова важна тема. Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на мислене относно етиката на ИИ и правенето на това неразделна част от разработването и внедряването на ИИ е от жизненоважно значение за създаването на подходящ ИИ, включително (може би изненадващо или иронично) оценката на начина, по който етиката на ИИ се възприема от фирмите.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Всъщност те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни предимства за обществото.

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на базирани на AI истински самоуправляващи се автомобили осветлява нещо относно разрешаването на разногласия между AI и човека и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващите се автомобили и несъгласието между ИИ и човека

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

За напълно автономните превозни средства може да няма никакъв шанс за професионално несъгласие между човек и ИИ поради възможността да няма човек в цикъла, с който да започнете. Стремежът на много от днешните производители на самоуправляващи се автомобили е да премахнат напълно човешкия водач от задачата за шофиране. Превозното средство дори няма да съдържа достъпни за хората контроли за шофиране. В този случай човешки шофьор, ако присъства, няма да може да участва в задачата за шофиране, тъй като няма достъп до каквито и да било контроли за шофиране.

За някои напълно автономни превозни средства, някои дизайни все още позволяват на човек да бъде в цикъла, въпреки че човекът изобщо не трябва да бъде на разположение или да участва в процеса на шофиране. Така човек може да участва в шофирането, ако желае. В нито един момент обаче AI не разчита на човека, за да изпълни някоя от задачите за шофиране.

В случай на полуавтономни превозни средства има връзка ръка за ръка между човешкия водач и ИИ. Човешкият шофьор може да поеме изцяло управлението на шофирането и по същество да попречи на ИИ да участва в шофирането. Ако човешкият водач желае да възстанови изкуствения интелект в ролята на шофиране, той може да го направи, въпреки че това понякога принуждава човека да се откаже от управлението на шофирането.

Друга форма на полуавтономна работа би накарала човешкия водач и AI да работят заедно в екип. AI шофира и човекът шофира. Шофират заедно. AI може да се отдаде на човека. Човекът може да се подчини на ИИ.

В даден момент системата за управление на AI и човешкият водач в цикъла може да достигнат точка на „професионално несъгласие“ по отношение на задачата за управление.

За да илюстрирате как някои от гореспоменатите правила за справяне с професионално несъгласие могат да бъдат предизвикателство за прилагане, помислете за примера на извикване на трета страна, човек, който да влезе в случая и да предложи решение за разрешаване на неразрешения проблем.

Да предположим, че производител на автомобили или технологична фирма за самостоятелно управление е уредила отдалечени човешки оператори да имат достъп до управлението на превозни средства в техния автопарк. Човекът-оператор седи в някакъв далечен офис или подобна обстановка. Чрез компютърна система те могат да видят сцената на шофиране чрез достъп до камерите и други сензорни устройства, заредени в самоуправляващата се кола. За тях това е почти като игра на онлайн видео игра, въпреки че, разбира се, обстоятелствата в реалния живот имат потенциално ужасни последици.

AI система и човешки шофьор в колата управляват полуавтономно превозно средство по дълга магистрала. Изведнъж AI иска да насочи в канавка. Човешкият шофьор не иска да прави това. Двамата се карат за управлението.

Как ще се реши това?

Може би бихме могли да установим предварително, че човекът винаги побеждава. Да приемем обаче, че сме избрали да не правим това.

Можехме да установим предварително, че AI винаги печели. Да приемем, че сме избрали да не правим това. Като цяло, ние не приехме нито едно от тези правила, освен че решихме да позволим на трета страна човек да се намеси и да разреши професионално несъгласие от каквото и да е съществено естество.

В този случай на използване AI и човешкият водач на волана се борят за управлението на шофирането. Да кажем, че това се предава на отдалечения човешки оператор (наш човек трета страна). Дистанционният човешки оператор проучва какво се случва и решава да се отдръпне от канавката, привидно предотвратявайки това, което AI се опитва да направи. В същото време да предположим, че дистанционният човек-оператор насочва към насрещния трафик, което може би нито ИИ, нито човешкият шофьор в колата са искали да направят.

Въпросът е, че начинът, по който е приложено това правило, е, че човешкият оператор от трета страна е в състояние напълно да отмени както AI, така и човека в цикъла. Със сигурност не е сигурно дали това ще доведе до добър резултат.

Ще използвам този пример, за да подчертая някои допълнителни прозрения по тези въпроси.

Не можете да направите наглото предположение, че само защото едно от тези правила е въведено, резултатът от разрешеното несъгласие е непременно гарантиран добър резултат. Може и да не е така. Няма никакво железно винаги правилно правило, което може да бъде избрано.

На следващо място, някои от тези правила може да не са жизнеспособни.

Помислете за примера на отдалечения човешки оператор, който се намесва, когато AI и човешкият водач се карат за управлението на шофирането. Може да отнеме много секунди на отдалечения човешки оператор, за да разбере какво се случва. Дотогава превозното средство може вече да е попаднало в канавката или да е имало друг неблагоприятен резултат. Освен това да предположим, че местоположението на превозното средство изключва отдалечен достъп, като например намиране на място, където няма мрежова електронна свързаност. Или може би мрежовите функции на автомобила не работят в този конкретен момент.

Както можете да видите, правилото може да изглежда необичайно на хартия, въпреки че прилагането на правилото в реална употреба може да бъде много труден или много случаен подход. Вижте моето критично око за отдалечения оператор на автономни превозни средства и самоуправляващи се автомобили на връзката тук.

Бих искал накратко да покрия друга свързана тема, която ще разгледам по-задълбочено в предстоящ анализ.

Едно от нарастващите опасения относно автономните превозни средства и самоуправляващите се автомобили, които са полуавтономни, е т.нар. Синдром на горещ картоф.

Ето сделката.

Шофираща система с AI и човек се управляват заедно. Възниква тежко затруднение. AI е програмиран да се откаже от задачата за шофиране и да прехвърли нещата на човека, когато настъпи ужасен момент. Това изглежда може би „разумно“, тъй като изглежда, че се позоваваме на правилото за човешкото същество като „победител“ по подразбиране във всяко потенциално професионално несъгласие.

Но отпадането на AI може да е за по-престъпни или считани за коварни цели. Възможно е производителят на автомобили или технологичната фирма за самостоятелно управление да не иска техният AI да се счита за „виновната страна“, когато настъпи автомобилна катастрофа. За да избегне привидно приковаване по този начин, AI внезапно предава контролите на човека. Ето, сега човекът вероятно е напълно отговорен за превозното средство.

Най-важното е, че да предположим, че изкуственият интелект прави това предаване, да речем, с една секунда преди да настъпи срив.

Дали човекът наистина ще има налично време да предотврати катастрофата?

Вероятно не.

Да предположим, че изкуственият интелект извършва прехвърлянето с оставащи няколко милисекунди или наносекунди. Смея да твърдя, че по същество човекът има нулев шанс да направи нещо, за да предотврати катастрофата.

От гледна точка на автомобилния производител или фирмата за самоуправляващи се автомобили, те могат да се опитат да се държат така, сякаш ръцете им са чисти, когато се случи такава автомобилна катастрофа. Колата е била управлявана от човек. AI не е управлявал колата. Единственото „логично“ заключение изглежда, че човекът трябва да е виновен и AI трябва да е напълно безгрешен.

Това е глина.

Ще обсъдя това по-задълбочено в предстояща колона.

Заключение

Ще възникнат професионални разногласия.

Трудно е да си представим сложна задача, която има две страни, които изпълняват задачата съвместно и за която никога няма да възникнат професионални разногласия. Това изглежда като фантастична страна или поне голяма рядкост.

Днес имаме много и много случаи на професионални разногласия между хора, за които всекидневно се решават мирно и разумно по един или друг начин. Всъщност ние често създаваме ситуации умишлено, за да насърчим и извадим наяве професионални разногласия. Може да възразите, че това демонстрира известната мъдрост, че понякога две глави са по-добри от една.

Тъй като AI става все по-разпространен, ще имаме много изпълнители на задачи от AI към човек или човек към AI от две страни и ще има професионални разногласия това ще се случи. Мързеливият подход е винаги да се съобразявате с човека. Това може да не е най-подходящият подход. AI може да е по-добрият избор. Или някое от другите гореспоменати правила може да е по-здрав подход.

Има онази мъдра реплика, която често се повтаря, че като цяло всички ние трябва да можем да се съгласим да не сме съгласни, но когато се стигне до жицата, понякога несъгласието трябва да бъде разрешено недвусмислено, в противен случай разглежданият въпрос ще доведе до неописуемо бедствие. Не можем просто да оставим едно разногласие да тлее на лозата. Времето може да е от съществено значение и животите може да са застрашени.

Съществува ясно изискване за някои разумни средства за разрешаване на разногласия, дори ако не непременно по приемлив начин, включително когато AI и човек в цикъла не виждат очи в очи или байт в байт.

Вярвам, че няма да не се съгласите с това напълно приемливо твърдение.

Източник: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- пилотът-и-пилотът-не се съгласиха-преди-излитане-и-внезапно-избраха-да-таксират-обратно-до-терминала-и-се разминават/