Етика на ИИ и Закон за ИИ, поясняващи какво всъщност е надежден ИИ

Доверието е всичко, така казват.

Известният философ Лао Дзъ е казал, че тези, които не вярват достатъчно, няма да получат доверие. Ърнест Хемингуей, уважаван романист, заяви, че най-добрият начин да разберете дали можете да се доверите на някого е като му се доверите.

Междувременно изглежда, че доверието е едновременно ценно и крехко. Доверието, което човек има, може да се срути като къща от карти или внезапно да се спука като спукан балон.

Древногръцкият трагик Софокъл твърди, че доверието умира, но недоверието разцъфтява. Френският философ и математик Декарт твърди, че е разумно никога да не се доверяваме напълно на тези, които са ни измамили дори веднъж. Изключителният бизнес инвеститор милиардер Уорън Бъфет увещава, че са необходими двадесет години, за да се изгради надеждна репутация и пет минути, за да се съсипе.

Може да се изненадате да разберете, че всички тези разнообразни възгледи и провокативни мнения относно доверието са от решаващо значение за появата на изкуствения интелект (AI).

Да, има нещо, което горещо се споменава като надежден AI които продължават да привличат адски много внимание в наши дни, включително ръкописни подвиквания от областта на изкуствения интелект и също така бурни изблици от хора извън сферата на изкуствения интелект. Цялостната представа включва дали обществото ще има желание да се довери на системи като AI.

Предполага се, че ако обществото няма или не може да се довери на AI, има вероятност системите с AI да се провалят. AI, както го познаваме в момента, ще бъде избутан настрана и просто ще събира прах. Шокиращо, изкуственият интелект може да се озове на купчината боклуци, превърнат исторически в нищо повече от отчаяно изпробван, но грандиозно провален високотехнологичен експеримент. Всякакви усилия за съживяване на изкуствения интелект потенциално биха се сблъскали с огромна трудна битка и биха били спрени от всякакви възражения и откровени протести. Привидно поради липса на доверие в AI.

Кое ще бъде, да се доверим ли на AI или да не се доверим на AI?

По същество ще имаме ли наистина надежден AI?

Това са отдавнашни и неразрешени въпроси. Нека го разопаковаме.

Етика на ИИ и борбата за надежден ИИ

Вярата на мнозина в AI е, че разработчиците на AI системи могат да спечелят доверие в AI чрез подходящо създаване на AI, който е надежден. Същността е, че не можете да се надявате да спечелите доверие, ако изкуственият интелект не изглежда надежден в самото начало. Чрез изработването на AI системи по начин, който се възприема като надежден, има солиден шанс хората да приемат AI и да възприемат използването на AI.

Едно притеснение, което вече измъчва това надеждно съображение за AI, е, че може вече да сме в дефицит на обществено доверие когато става въпрос за AI. Може да се каже, че AI, който вече видяхме, е изкопал дупка и е разхвърлял доверието в огромни количества. По този начин, вместо да започне от някаква достатъчна основа на надеждност, AI ще трябва изумително да се изкачи от дефицита, грабвайки всяка желана унция допълнително доверие, което ще е необходимо, за да убеди хората, че AI всъщност заслужава доверие.

В това предизвикателство идва етиката на ИИ и Законът за ИИ.

Етиката на изкуствения интелект и правото на изкуствения интелект се борят много в опитите си да разберат какво ще е необходимо, за да направим изкуствения интелект надежден. Някои предполагат, че има формула или железни закони, които ще отнесат AI в надеждните небеса. Други посочват, че ще е необходима упорита работа и последователно и неумолимо спазване на етиката на ИИ и принципите на Закона за ИИ, за да се спечели прехваленото доверие на обществото.

Съвременната енигма за доверието в AI не е особено нова сама по себе си.

Можете лесно да се върнете в края на 1990-те години и да проследите появата на търсеното желание за „доверени компютри“ от онези дни. Това беше широкомащабно усилие на технологичната индустрия да разбере дали всички компютри могат да бъдат направени по начин, който да се тълкува като надежден от обществото.

Ключовите въпроси се състоеха от:

  • Може ли компютърният хардуер да бъде направен така, че да е надежден?
  • Може ли софтуерът да бъде създаден така, че да е надежден?
  • Можем ли да поставим глобални мрежови компютри, които биха били надеждни?
  • И така нататък.

Преобладаващото мнение тогава и което продължава и до днес е, че надеждните компютри остават вид свещен граал, който за съжаление все още не е съвсем в нашия обсег (както е отбелязано в документ, озаглавен „Надежден AI“ в Комуникации на ACM). Бихте могли убедително да твърдите, че AI е още един компонент от обвивката за надеждност на компютъра, но въпреки това AI прави търсенето на доверие още по-предизвикателно и несигурно. AI се превърна в потенциален спойлер в борбата за постигане на надеждни изчисления. Може би най-слабото звено във веригата, така да се каже.

Нека да разгледаме набързо защо AI ни накара да се вбесим, че сме по-малко надеждни. Освен това ще проучим принципите на етиката на изкуствения интелект, които се надяваме да помогнат за поддържането на вече полуподводното възприемано доверие (или кипящо недоверие) на днешния изкуствен интелект. За моето текущо и обширно отразяване на AI Ethics вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка извършват и поддържат AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират AI, подлежат на придържане към понятията за етика на AI. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека свържем това с въпроса за надеждния AI

Със сигурност не бихме искали да се доверим на AI, който демонстрира неблагоприятни пристрастия и дискриминационни действия. Нашето убеждение, в този случай, би било, че такъв AI определено не заслужава доверие, следователно бихме склонили към активно недоверие на AI. Без да прекалявам с антропоморфното сравнение (ще кажа повече за AI антропоморфизирането след малко), човек, който показва неблагоприятни пристрастия, също ще бъде обект на оценка като не особено надежден.

Копаене в доверието и благонадеждността

Може би трябва да погледнем какво имаме предвид, когато твърдим, че вярваме или не вярваме на някого или нещо. Първо, помислете за няколко дефиниции на доверие в ежедневния речник.

Примери за това какво определено означава доверие са:

  • Сигурно разчитане на характера, способностите, силата или истината на някого или нещо (Онлайн речник на Merriam-Webster).
  • Разчитане на почтеността, силата, способността, гаранцията и т.н. на човек или нещо (Dictionary.com)
  • Твърда вяра в надеждността, истината, способността или силата на някого или нещо (онлайн речник на Oxford Languages).

Бих искал да отбележа, че всички тези определения се отнасят до „някой“ и по същия начин се отнасят до „нещо“ като потенциално надеждно. Това е забележително, тъй като някои може да настояват, че ние вярваме само на хората и че актът на доверие е запазен изключително за човечеството като наша цел за надеждност. Не така. Можете да се доверите на вашия кухненски тостер. Ако изглежда, че прави надеждно вашия тост и работи рутинно, за да го направи, със сигурност можете да имате вид на доверие относно това дали тостерът наистина е надежден.

В същия ред на мисли, AI също може да бъде обект на нашата гледна точка на доверие. Вероятностите са, че доверието, свързано с AI, ще бъде много по-сложно, отколкото да речем обикновен тостер. Тостерът обикновено може да извършва само няколко действия. Една AI система вероятно ще бъде много по-сложна и ще изглежда да работи по-малко прозрачно. Нашата способност да оценим и установим надеждността на AI ще бъде много по-трудна и ще предложи различни предизвикателства.

Освен че е просто по-сложна, типичната AI система се смята за недетерминистична и потенциално саморегулираща се или самонастройваща се. Можем да разгледаме накратко това понятие.

Една детерминирана машина има тенденция да прави едни и същи неща отново и отново, предсказуемо и с жизнеспособен различим модел на това как работи. Може да кажете, че обикновеният тостер препича приблизително по същия начин и има контроли за препичане, които модерират препичането, като всички те обикновено са предсказуеми от лицето, използващо тостера. За разлика от това, сложните AI системи често са проектирани да бъдат недетерминистични, което означава, че те могат да правят доста различни неща отвъд това, което бихте очаквали иначе. Това може частично да бъде допълнително усилено, ако AI е написан така, че да се самонастройва, аспект, който може благоприятно да позволи на AI да се подобри в случай на ML/DL, въпреки че може също така да накара AI да се поклати или да влезе в редиците на лошото ИИ. Може да не знаете какво ви е ударило, така да се каже, тъй като сте били хванати напълно неподготвени от действията на AI.

Какво можем да направим, за да се опитаме да доближим AI до надеждността?

Един подход се състои в опит да се гарантира, че тези, които изграждат и прилагат AI, спазват набор от правила за етика на AI. Както споменаха тези изследователи на ИИ: „Доверието е отношение, че агентът ще се държи според очакванията и може да се разчита на него, за да постигне целта си. Доверието се разпада след грешка или неразбирателство между агента и доверилия се индивид. Психологическото състояние на доверие в AI е възникващо свойство на сложна система, обикновено включваща много цикли на проектиране, обучение, внедряване, измерване на ефективността, регулиране, редизайн и преквалификация” (посочено в Комуникации на ACM, „Доверие, регулиране и изкуствен интелект на хората в цикъла в европейския регион“ от Стюарт Мидълтън, Еманюел Летуз, Али Хосаини и Адриан Чапман, април 2022 г.).

Същността е, че ако успеем да накараме разработчиците на AI да спазват етичния AI, те се надяваме, че в крайна сметка ще създадат надежден AI. Всичко това е добре, но изглежда донякъде непрактично на базата на реалния свят, въпреки че това е абсолютно път, който си струва да се следва.

Ето какво искам да кажа.

Да предположим, че са положени усърдни усилия от разработчиците на AI, които създават AI система за някаква цел, която обикновено наричаме X. Те внимателно се уверяват, че AI спазва предписанията за прозрачност на етиката на AI. Те старателно гарантират, че поверителността е подходящо вградена в AI. За почти всички обичайни принципи на етиката на ИИ създателите на ИИ изчерпателно гарантират, че ИИ отговаря на дадените правила.

Сега трябва ли да се доверите на този AI?

Позволете ми да ви помогна да разберете вашите мисли по този въпрос с отворен край.

Оказва се, че кибер мошениците са успели да проникнат в AI и тайно да накарат AI да изпълни X и същевременно дават на кибер хакерите всички данни, които AI събира. Правейки това, тези злодеи коварно подкопават правилото за поверителност. Вие сте в блажено неведение, че това се случва под капака на AI.

С тази добавена информация ще ви задам отново същия въпрос.

Вярвате ли на този AI?

Смея да кажа, че повечето хора веднага биха заявили, че със сигурност го правят не доверете се на този конкретен AI. Може би са му се доверили по-рано. Сега те предпочитат да не смятат изкуствения интелект за надежден.

Няколко ключови прозрения, базирани на този прост пример, заслужават внимание:

  • Динамика на доверието. Дори и най-добрите намерения да се покрият всички основи за гарантиране, че AI Ethics е вградена в AI система, не са гаранция за това какво може да се окаже или да стане AI. След като изкуственият интелект бъде пуснат в употреба, външни лица могат потенциално да подкопаят натрупванията на етичния изкуствен интелект.
  • Подбиване на доверието отвътре. Актът на подбиване на надеждността не е задължително да бъде външен човек. Вътрешен човек, който извършва редовна поддръжка на AI системата, може да направи грешка и да отслаби AI, така че да стане по-малко надежден. Този разработчик на AI може да няма представа за това, което е направил.
  • Неволни компромиси на доверието. Самонастройващ се или саморегулиращ се AI може в даден момент да се приспособи и да се насочи към ненадеждната територия. Може би изкуственият интелект се опитва да подобри прозрачността на изкуствения интелект и същевременно и по неподходящ начин компрометира аспектите на поверителността.
  • Разсейване на доверието. Опитът да се постигнат всички принципи на етиката на ИИ до една и съща най-висока степен на надеждност обикновено не е лесно осъществим, тъй като те често имат противоположни цели или имат други присъщи потенциални конфликти. Доста идеализирана гледна точка е да се вярва, че всички предписания на Етичния изкуствен интелект са мечтателно подравнени и всички са постижими до някаква еднаква максимална степен.
  • Постигането на доверие може да бъде скъпо. Цената за опит и постигане на първокласно подобие на надежден AI чрез предприемане на различни обширни и изчерпателни стъпки и спазване на литанията от принципи на етиката на AI ще бъде сравнително висока. Можете лесно да възразите, че разходите биха били непосилни по отношение на въвеждането в употреба на някои AI системи, които иначе имат важна стойност за обществото, дори ако AI не беше, да кажем, по-малко от идеален поради желание за надеждност.
  • И така нататък.

Не тълкувайте погрешно предходните забележки, за да подскажете, че трябва по някакъв начин да предотвратим усилията за цялостно изграждане и внедряване на надежден AI. Бихте изхвърлили наведнъж бебето заедно с водата за баня, така да се каже. Правилното тълкуване е, че ние наистина трябва да извършваме тези доверителни дейности, за да накараме ИИ да бъде надеждно разглеждане, но това само по себе си не е лекарство за всичко или сребърен куршум.

Многостранни пътища към надежден AI

Има важни допълнителни многопосочни начини да се стремим към надежден AI.

Например, както вече споменах в моите колони, безброй нововъзникващи закони и разпоредби относно ИИ имат за цел да накарат производителите на ИИ да създадат надежден ИИ, вж. връзката тук намлява връзката тук.

Тези законови защитни парапети са от решаващо значение като всеобхватно средство за гарантиране, че тези, които създават ИИ, носят пълна отговорност за своя ИИ. Без такива потенциални правни средства за защита и законни наказания, онези, които натрапват AI на пазара, вероятно ще продължат да го правят с малко, ако има някакво сериозно отношение към постигането на надежден AI. Бих могъл да добавя по-специално, че ако тези закони и разпоредби са лошо измислени или неадекватно приложени, те биха могли за съжаление да подкопаят стремежа към надежден AI, може би по ирония на съдбата и странно насърчаване на ненадежден AI над надежден AI (вижте дискусиите в моята колона за допълнително обяснение).

Също така съм бил твърд защитник на това, което горещо наричам AI ангел-пазители ботове (вижте моето отразяване на връзката тук). Това е предстоящ метод или подход за опит за борба с огъня с огън, а именно използване на AI, за да ни помогне да се справим с друг AI, който може или не може да бъде надежден.

Първо, малко фонов контекст ще бъде полезен.

Да предположим, че избирате да разчитате на AI система, за която не сте сигурни в нейната надеждност. Основно притеснение може да бъде, че сте сами в опитите си да разберете дали на ИИ трябва да се вярва или не. AI е потенциално изчислително по-бърз от вас и може да се възползва от вас. Имате нужда от някой или нещо на ваша страна, което да помогне.

Една от гледните точки е, че винаги трябва да има човек в цикъла, който да ви помага, докато използвате AI система. Това обаче е проблематично решение. Ако изкуственият интелект работи в реално време, което ще обсъдим моментално, когато става въпрос за появата на базирани на изкуствен интелект самоуправляващи се автомобили, наличието на човек в цикъла може да не е достатъчно. AI може да действа в реално време и докато определен човек в цикъла влезе в картината, за да разбере дали AI работи правилно, може вече да е настъпил катастрофален резултат.

Настрана, това повдига друг фактор за доверието. Обикновено определяме ниво на доверие въз основа на контекста или обстоятелствата, пред които сме изправени. Може да се доверите напълно на малкия си син или дъщеря, че ще ви бъдат верни, но ако сте на пътешествие и решите да разчитате на малкото дете да ви каже дали е безопасно да стъпите на ръба на скала, мисля, че ще постъпите мъдро да прецени дали малкото дете може да даде такъв съвет на живот или смърт. Детето може да го направи сериозно и искрено и въпреки това да не е в състояние да даде адекватно такъв съвет.

Същото понятие се свързва с доверието, когато става въпрос за AI. AI система, която използвате, за да играете на пулове или шах, вероятно не е включена в каквито и да е обсъждания на живот или смърт. Можете да бъдете по-спокойни с възлагането на доверие. Базирана на AI самоуправляваща се кола, която се движи по магистрала с високи скорости, изисква много по-високо ниво на доверие. Най-малкото проблясване от системата за управление на AI може да доведе директно до вашата смърт и смъртта на други.

В публикувано интервю на Beena Ammanath, изпълнителен директор на Global Deloitte AI Institute и автор на книгата Надежден AI, подобен акцент върху разглеждането на контекстуалните аспекти на това, къде играе роля надеждността на AI: „Ако изграждате AI решение, което извършва диагностика на пациенти, справедливостта и пристрастието са изключително важни. Но ако изграждате алгоритъм, който предвижда отказ на реактивен двигател, справедливостта и пристрастието не са толкова важни. Надеждният AI наистина е структура, която да ви накара да започнете да мислите за измеренията на доверието във вашата организация” (VentureBeat, 22 март 2022 г.).

Когато обсъждате надежден AI, можете да тълкувате тази тема по много начини.

Например, надежден AI е нещо, което всички разглеждаме като желана и амбициозна цел, а именно, че трябва да желаем да създадем и разпространяваме надежден ИИ. Има и друга употреба на крилатата фраза. Донякъде алтернативна употреба е това надежден AI е състояние на състояние или измерване, така че някой може да твърди, че е създал AI система, която е екземпляр на надежден AI. Можете също да използвате фразата надежден AI да предложи метод или подход, който може да се използва за постигане на надеждност на AI. и т.н.

Във връзка с това, вярвам, че осъзнавате, че не всички AI са еднакви и че трябва да внимаваме да не правим общи изявления за всички AI. Определена AI система вероятно ще се различава значително от друга AI система. Една от тези AI системи може да бъде много надеждна, докато другата може да е незначително надеждна. Бъдете предпазливи, като някак си приемете, че AI е монолит, който или е напълно надежден, или напълно не е надежден.

Това просто не е така.

След това бих искал да покрия накратко някои от моите текущи изследвания относно надежден AI, които може да ви заинтересуват, обхващайки възникващата роля на AI ангел-пазители ботове.

Ето как става.

Вие ще бъдете въоръжени с AI система (AI бот ангел-пазител), която е създадена да прецени надеждността на някоя друга AI система. Ботът ангел-пазител с изкуствен интелект има първостепенен фокус върху вашата безопасност. Мислете за това, сякаш имате средствата да наблюдавате AI, на който разчитате, като имате различна AI система в истинския си джоб, може би работеща на вашия смартфон или други подобни устройства. Вашият пословичен AI пазител може да изчислява на базата, на която AI, на който разчитате, също го прави, като работи с бързи скорости и изчислява ситуацията в реално време, много по-бързо, отколкото би могъл да направи това човек в цикъла.

На пръв поглед може да си помислите, че AI, на който вече разчитате, трябва да има малко вътрешен AI парапети, които правят същото като този отделно изчисляващ AI ангел-пазител бот. Да, това със сигурност би било желано. Едно притеснение е, че AI предпазните парапети, вградени в AI система, може да са интегрално и предубедено приведени в съответствие с AI per se, като по този начин предполагаемата AI предпазна парапет вече не е в състояние в известен смисъл независимо да проверява или валидира AI.

Контрастната идея е, че вашият AI ангел-пазител бот е независим AI механизъм или механизъм на трета страна, който е различен от AI, на който разчитате. Той стои извън другия AI, като остава посветен на вас, а не на AI, който се наблюдава или оценява.

Ясни начини за мислене за това могат да бъдат изразени чрез следните опростени твърдения, подобни на уравнение. Можем да кажем, че „P“ желае потенциално да се довери на „R“ да изпълни определена задача „X“:

Това би било следното, когато участват само хора:

  • Лице P се доверява на лице R да изпълни задача X.

Когато изберем да разчитаме на AI, изявлението се променя на следното:

  • Лице P се доверява на AI instance-R да изпълни задача X.

Можем да добавим бота ангел-пазител, като кажем следното:

  • Човек P се доверява на AI instance-R да изпълни задача X като се наблюдава от AI angel guardian bot instance-Z

Ботът ангел пазител на AI неуморно и безмилостно оценява AI, на който разчитате. Като такъв, вашият удобен AI настойник може да ви предупреди, че доверието на този друг AI е неоправдано. Или настойникът на AI може да взаимодейства по електронен път с другия AI, за да се опита да гарантира, че всяко отклонение от надеждността е бързо коригирано и т.н. (вижте моето отразяване на такива подробности на връзката тук).

Метафората на надеждния резервоар на доверието

Тъй като обсъждаме различни нива на доверие, може да намерите полезна метафора за надеждността, като възприемате доверието като вид резервоар.

Имате определено доверие към конкретен човек или нещо при определени обстоятелства в определен момент от време. Нивото на доверие ще се повиши или падне в зависимост от това какво друго се случва, свързано с този конкретен човек или нещо. Доверието може да бъде на нулево ниво, когато нямате никакво доверие към човека или нещото. Доверието може да бъде отрицателно, когато се осмелите да изпитвате недоверие към този човек или нещо.

В случай на AI системи, вашият резервоар за доверие за конкретния AI, на който разчитате при конкретни обстоятелства, ще се повиши или спадне в зависимост от това как оценявате надеждността на AI. Понякога може да сте добре наясно с това вариращо ниво на доверие относно AI, докато в други случаи може да сте по-малко наясно и повече, като правите предчувствие за преценка относно надеждността.

Начините, по които сме обсъждали тук средствата за повишаване на нивата на доверие за AI, включват:

  • Спазване на етиката на ИИ. Ако изкуственият интелект, на който разчитате, е създаден, като се опитвате да се придържате към правилните правила на етиката на изкуствения интелект, вероятно бихте използвали това разбиране, за да повишите нивото на вашия резервоар за доверие към тази конкретна система на изкуствен интелект. Като странична бележка, също така е възможно да обобщите и други системи с ИИ по отношение на тяхната надеждност, въпреки че понякога това може да бъде подвеждаща форма на това, което наричам Разпространението на аурата на доверието на AI (бъдете внимателни при това!).
  • Използвайте Human-In-The-Loop. Ако изкуственият интелект има човек в цикъла, може положително да увеличите възприеманото от вас доверие в изкуствения интелект.
  • Създайте закони и разпоредби. Ако има закони и разпоредби, свързани с този конкретен тип AI, вие също може да повишите нивото на доверие.
  • Използвайте AI Guardian Angel Bot. Ако имате готов бот ангел пазител с изкуствен интелект, това също ще повиши допълнително нивото ви на доверие.

Както споменахме по-рано, доверието може да бъде доста крехко и да се разпадне за миг (т.е. резервоарът за доверие бързо и внезапно изхвърля цялото изградено доверие).

Представете си, че се намирате в базирана на изкуствен интелект самоуправляваща се кола и управляващият изкуствен интелект внезапно прави радикален десен завой, което кара колелата да скърцат и почти принуждава автономното превозно средство да се преобръща опасно. Какво ще се случи с вашето ниво на доверие? Изглежда, че дори ако преди сте поддържали AI на повишено ниво на доверие, вие драстично и рязко ще намалите нивото си на доверие, което е разумно.

На този етап от тази тежка дискусия бих се обзаложил, че желаете допълнителни илюстративни примери, които биха могли да покажат естеството и обхвата на надеждния AI. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по AI, включително етичните и правни последици, често ме карат да идентифицирам реалистични примери, които демонстрират дилеми, свързани с етиката на AI, така че донякъде теоретичната природа на темата да може да бъде по-лесно разбрана. Една от най-евокативните области, която ярко представя това етично затруднение с ИИ, е появата на базирани на ИИ истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на истински самоуправляващи се автомобили, базирани на AI, осветява нещо относно стремежа към надежден AI и ако да, какво демонстрира това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и надежден AI

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да се потопим дълбоко в самоуправляващите се автомобили и надеждния AI.

Доверието е всичко, особено в случай на базирани на AI самоуправляващи се автомобили.

Обществото изглежда предпазливо гледа на появата на самоуправляващите се коли. От една страна, има огромна надежда, че появата на истински самоуправляващи се автомобили очевидно ще намали броя на годишните смъртни случаи, свързани с автомобили. Само в Съединените щати има около 40,000 2.5 смъртни случая годишно и около XNUMX милиона наранявания поради автомобилни катастрофи, вижте моята колекция от статистики на връзката тук. Хората пият и шофират. Хората шофират, докато са разсеяни. Задачата за шофиране на кола изглежда се състои в това да можеш да се съсредоточаваш непрекъснато и безпогрешно върху шофирането и да избягваш попадането в автомобилни катастрофи. Като такива, можем мечтателно да се надяваме, че системите за шофиране с изкуствен интелект ще насочват самоуправляващите се автомобили повтарящо се и безпогрешно. Можете да тълкувате самоуправляващите се автомобили като двойка, състояща се в намаляване на броя на смъртните случаи и нараняванията при автомобилни катастрофи, заедно с потенциално предоставяне на мобилността на много по-широка и достъпна основа.

Но междувременно тревогата надвисва над обществените възприятия за това дали самоуправляващите се автомобили ще бъдат достатъчно безопасни, за да бъдат по нашите обществени пътища като цяло.

Ако дори една самоуправляваща се кола попадне в катастрофа или сблъсък, което води до един смъртен случай или тежко нараняване, вероятно можете да предвидите, че днешното донякъде изградено доверие към тези базирани на AI автомобили без шофьори рязко ще спадне. Видяхме това да се случи, когато стана скандалният инцидент в Аризона, който включваше донякъде (не наистина) самоуправляваща се кола, която блъсна и уби пешеходец (вижте моето отразяване на тази връзка тук).

Някои експерти посочват, че е несправедливо и неуместно доверието в самоуправляващите се автомобили с изкуствен интелект да се основава на аспекта, че само една такава следваща смъртоносна катастрофа или сблъсък може да подкопае вече относително свободните от катастрофи изпитания на обществените пътища. В допълнение, на още една несправедлива основа, шансовете са, че без значение коя конкретна марка или модел самоуправляващи се автомобили с изкуствен интелект може да бъде замесен в печален инцидент, обществото несъмнено ще обвини всички марки самоуправляващи се автомобили.

Целият брой самоуправляващи се автомобили може да бъде незабавно опетнен и индустрията като цяло може да претърпи огромна реакция, водеща до възможно спиране на всички изпитания на обществени пътища.

Причина за такъв обратен удар се намира в безсмислените прокламации на откровените привърженици на самоуправляващите се автомобили, че всички автомобили без водач няма да могат да се разбиват. Тази идея да бъдеш неразрушим е не само напълно погрешна (вж връзката тук), той коварно настройва индустрията на самоуправляващите се автомобили за напълно необичаен набор от очаквания. Тези странни и непостижими изявления, че няма да има смъртни случаи поради самоуправляващите се автомобили, подхранват погрешното схващане, че всякакви автомобилни катастрофи без водач са сигурен знак, че целият комплект и лудост са за нищо.

Има отчетлива тъга да осъзнаеш, че напредъкът към самоуправляващите се автомобили и постепенното натрупване на обществено доверие могат да бъдат затрити за миг. Това ще бъде една дяволска витрина за крехкостта на доверието.

Заключение

Много производители на автомобили и технологични фирми за самостоятелно шофиране обикновено се придържат към принципите на етиката на изкуствения интелект, като се опитват да изградят надежден изкуствен интелект по отношение на безопасни и надеждни базирани на изкуствен интелект самоуправляващи се автомобили. Моля, осъзнайте, че някои от тези фирми са по-силни и по-отдадени на принципите на етичния изкуствен интелект от други. Има и случайни стартъпи на периферни или начинаещи самоуправляващи се автомобили, които изглежда отхвърлят голяма част от крайъгълните камъни на етиката на изкуствения интелект (вижте рецензията ми на връзката тук).

На други фронтове новите закони и разпоредби, обхващащи самоуправляващите се автомобили, постепенно се включват в правните книги. Дали имат необходимите зъби, за да ги подкрепят, е различен въпрос, както и дали прилагането на тези закони се приема сериозно или се пренебрегва (вижте моите колони за анализи по този въпрос).

Има и високотехнологичен ъгъл към това. Предвидих, че постепенно ще видим варианти на ботове ангел-пазител с изкуствен интелект, които ще излязат на преден план в арената на автономните превозни средства и самоуправляващите се автомобили. Още не сме стигнали. Това ще стане по-разпространено, след като популярността на самоуправляващите се автомобили стане по-широко разпространена.

Тази последна точка извежда известна реплика за доверието, която несъмнено вече знаете наизуст.

Вярвай, но проверявай.

Можем да си позволим да разширим доверието си, може би щедро. Междувременно трябва също да наблюдаваме като ястреб, за да сме сигурни, че доверието, което пораждаме, се потвърждава както с думи, така и с дела. Нека се доверим малко на AI, но безкрайно да проверяваме дали се доверяваме правилно и с широко отворени очи.

Можеш да ми вярваш за това.

Източник: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/