Шокиращо откровение за AI Ethics, че обучението на AI да бъде токсичен или предубеден може да бъде от полза, включително за тези автономни самоуправляващи се автомобили

Ето една стара реплика, която съм сигурен, че сте чували преди.

Трябва да се знае човек.

Може да не осъзнаете, че това е израз, който може да бъде проследен до началото на 1900-те и обикновено се използва, когато се говори за нарушители (други вариации на крилатата фраза дават по-далеч, като например 1600-те). Пример за това как може да се използва това изказване включва идеята, че ако искате да хванете крадец, тогава трябва да използвате крадец, за да го направите. Това демонстрира твърдението, че е необходимо човек да го познава. Много филми и телевизионни предавания са се възползвали от тази удобна мъдрост, често изобразявайки, че единственото жизнеспособно средство да се хване мошеник включва наемането на също толкова корумпиран мошеник, за да преследва нарушителя.

Превключвайки предавките, някои може да използват същата логика, за да твърдят, че подходящ начин да се разбере дали някой въплъщава неправомерни пристрастия и дискриминационни убеждения би бил да се намери някой, който вече таи такива тенденции. Предполага се, че човек, който вече е изпълнен с пристрастия, ще може по-лесно да усети, че този друг човек също е изпълнен до ръба с токсичност. Отново е необходимо човек да разбере, че това е признатата мантра.

Първоначалната ви реакция към възможността да използвате предубеден човек, за да разкриете друг предубеден човек, може да бъде скептицизъм и неверие. Не можем ли да разберем дали някой има неблагоприятни пристрастия, като просто ги изследваме и не трябва да прибягваме до намирането на някой друг от подобно естество? Би изглеждало странно нарочно да се стремим да открием някой, който е предубеден, за да разкрие други, които също са токсично предубедени.

Предполагам, че отчасти зависи от това дали сте готови да приемете предполагаемия рефрен, че е необходим човек, за да го познаете. Имайте предвид, че това не означава, че единственият начин да хванете крадец изисква да използвате изключително и винаги крадец. С основание можете да твърдите, че това е просто допълнителен път, на който може да се обърне дължимото внимание. Може би понякога сте готови да се забавлявате с възможността да използвате крадец, за да хванете крадец, докато други обстоятелства могат да направят това неразгадаема тактика.

Използвайте правилния инструмент за правилната настройка, както се казва.

След като изложих тези основи, можем да продължим към може би смущаващата и привидно шокираща част от тази история.

Готови ли сте?

Сферата на ИИ активно следва същата заповед, че понякога е необходимо човек да го познава, особено в случай на опит да открием ИИ, който е предубеден или действа по дискриминационен начин. Да, умопомрачителната идея е, че може нарочно да искаме да изработим AI, който е напълно и безсрамно предубеден и дискриминационен, като го правим, за да го използваме като средство за откриване и разкриване на друг AI, който има същото подобие на токсичност. Както ще видите след малко, в основата на въпроса има различни досадни проблеми с етиката на ИИ. За цялостното ми текущо и обширно отразяване на Етика на ИИ и Етичен ИИ вж връзката тук намлява връзката тук, Само за да назовем няколко.

Предполагам, че бихте могли да изразите тази употреба на токсичен AI, за да се преследва друг токсичен AI като пословичната концепция за борба с огън с огън (можем да се позоваваме на много евфемизми и илюстративни метафори, за да изобразим тази ситуация). Или, както вече беше подчертано, можем пестеливо да се позоваваме на твърдението, че е необходимо човек да го познава.

Общата концепция е, че вместо само да се опитваме да разберем дали дадена AI система съдържа ненужни пристрастия чрез използване на конвенционални методи, може би трябва да се стремим да използваме и по-малко конвенционални средства. Едно такова неконвенционално средство би било да се изработи AI, който съдържа всички най-лоши отклонения и социално неприемливи токсичности, и след това да се използва този AI, за да се подпомогне премахването на друг AI, който има същите тези склонности към лошотия.

Когато се замислите набързо, това със сигурност изглежда напълно разумно. Бихме могли да се стремим да изградим AI, който е токсичен до максимум. Този токсичен AI след това се използва за откриване на друг AI, който също има токсичност. За разкрития тогава „лош” ИИ, можем да се справим с него, като премахнем токсичността, като изхвърлим изцяло ИИ (вижте моето отразяване на изхвърлянето или унищожаването на ИИ на тази връзка тук), или затваряне на AI (вижте моето отразяване на AI задържането на тази връзка тук), или направете каквото друго ви се струва приложимо.

Контрааргументът е, че трябва да проверим главите си, че умишлено и доброволно създаваме AI, който е токсичен и изпълнен с пристрастия. Това е последното нещо, което трябва да вземем предвид, биха увещали някои. Съсредоточете се върху това, че ИИ се състои изцяло от доброта. Не се фокусирайте върху измислянето на AI, който има злините и остатъците от ненужни пристрастия. Самата представа за подобно преследване изглежда отблъскваща за някои.

Има повече притеснения относно това противоречиво търсене.

Може би мисията за разработване на токсичен AI просто ще насърчи онези, които искат да създадат AI, който е в състояние да подкопае обществото. Сякаш казваме, че изработването на AI, който има неподходящи и неприятни пристрастия, е напълно добре. Без притеснения, без колебания. Стремете се да измислите токсичен AI според желанието си, ние шумно предаваме на строителите на AI по целия свят. Всичко е (намигване-намигване) в името на доброто.

Освен това, да предположим, че този токсичен ИИ вид се хваща. Възможно е ИИ да се използва и използва повторно от много други създатели на ИИ. В крайна сметка токсичният AI се крие във всички видове AI системи. Може да се направи аналогия с разработването на вирус, подкопаващ човека, който избяга от вероятно запечатана лаборатория. Следващото нещо, което знаете, проклетото нещо е навсякъде и ние сме се изтрили.

Изчакайте малко, контрааргументите вървят, вие сте вбесени от всякакви луди и неподкрепени предположения. Поеми си дълбоко въздух. Успокой се.

Можем безопасно да направим AI, който е токсичен и да го държим ограничен. Можем да използваме токсичния AI, за да открием и помогнем за намаляване на нарастващото разпространение на AI, който за съжаление има ненужни пристрастия. Всяко друго от тези абсурдно диви и необосновани възклицания от снежна топка са чисто коленени реакции и за съжаление глупави и направо безразсъдни. Не се опитвайте да изхвърлите бебето с водата за къпане, предупредени сте.

Помислете за това по този начин, твърдят поддръжниците. Правилното изграждане и използване на токсичен AI за целите на изследване, оценка и действие като детектив за разкриване на друг социално обиден AI е достоен подход и трябва да се разтърси справедливо, когато бъде преследван. Оставете настрана вашите обривни реакции. Слезте на земята и погледнете това трезво. Нашето око е насочено към наградата, а именно разкриването и премахването на пренасищането с пристрастно базирани AI системи и гарантирането, че като общество няма да бъдем затрупани с токсичен AI.

Месечен цикъл. Точка.

Има различни ключови начини да се задълбочим в тази идея за използване на токсичен или предубеден AI за полезни цели, включително:

  • Настройте набори от данни, които умишлено съдържат пристрастни и напълно токсични данни, които могат да се използват за обучение на AI относно това какво да не се прави и/или за какво да се следи
  • Използвайте такива набори от данни, за да обучите моделите на машинно обучение (ML) и дълбоко обучение (DL) за откриване на отклонения и установяване на изчислителни модели, водещи до социална токсичност
  • Приложете обучения за токсичност ML/DL към друг AI, за да установите дали целевият AI е потенциално предубеден и токсичен
  • Предоставете на разположение обучени за токсичност ML/DL, за да покажете на създателите на AI за какво да внимават, за да могат лесно да инспектират модели, за да видят как възникват алгоритмично пропити отклонения
  • Дайте пример за опасностите от токсичния ИИ като част от Етика на ИИ и Етична осведоменост за ИИ, всичко разказано чрез тази серия от примери за лоши до костите на ИИ деца
  • Други

Преди да влезем в основата на тези няколко пътя, нека установим някои допълнителни основни подробности.

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре можем да поставим сцената, като проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка работят и извършват поддръжка на AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират ИИ, са обект на придържане към понятията за етиката на ИИ. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Какво друго може да се направи за всичко това?

Нека се върнем към предишния списък за това как да се опитаме да се справим с пристрастията на AI или токсичния AI, като използваме малко нетрадиционен подход „трябва да се знае един“. Припомнете си, че списъкът се състои от следните основни точки:

  • Настройте набори от данни, които умишлено съдържат пристрастни и напълно токсични данни, които могат да се използват за обучение на AI относно това какво да не се прави и/или за какво да се следи
  • Използвайте такива набори от данни, за да обучите моделите на машинно обучение (ML) и дълбоко обучение (DL) за откриване на отклонения и установяване на изчислителни модели, водещи до социална токсичност
  • Приложете обучения за токсичност ML/DL към друг AI, за да установите дали целевият AI е потенциално предубеден и токсичен
  • Предоставете на разположение обучени за токсичност ML/DL, за да покажете на създателите на AI за какво да внимават, за да могат лесно да инспектират модели, за да видят как възникват алгоритмично пропити отклонения
  • Илюстрирайте опасностите от токсичния ИИ като част от Етика на ИИ и Етична осведоменост за ИИ, всичко разказано чрез тази серия от лоши до костите на AI примери за деца
  • Други

Ще разгледаме отблизо първата от тези важни точки.

Настройване на набори от данни за токсични данни

Проницателен пример за опит за установяване на набори от данни, които съдържат неприятни обществени пристрастия, е наборът от данни CivilComments от курираната от WILDS колекция.

Първо, малко предистория.

WILDS е колекция от набори от данни с отворен код, които могат да се използват за обучение на ML/DL. Основната заявена цел на WILDS е, че позволява на разработчиците на AI да имат лесен достъп до данните, които представляват разпределителни смени в различни специфични области. Някои от наличните в момента домейни обхващат области като животински видове, тумори в живите тъкани, плътност на житните глави и други домейни като CivilComments, които ще опиша за момент.

Справянето със смените на дистрибуцията е решаваща част от правилното изработване на AI ML/DL системи. Ето каква е сделката. Понякога данните, които използвате за обучение, се оказват доста различни от данните от тестването или „в дивата природа“ и по този начин предполагаемо обучените ви ML/DL се различават от това какъв ще бъде реалния свят. Проницателните създатели на AI трябва да обучават своите ML/DL, за да се справят с подобни промени в разпространението. Това трябва да бъде направено предварително, а не по някакъв начин да бъде изненада, че по-късно изисква преработка на ML/DL per se.

Както е обяснено в документа, който въвежда WILDS: „Изместването на разпределението – когато разпределението на обучението се различава от разпределението на тестовете – може значително да влоши точността на системите за машинно обучение (ML), внедрени в дивата природа. Въпреки повсеместното им разпространение в реалния свят, тези промени в разпространението са недостатъчно представени в наборите от данни, широко използвани в общността на ML днес. За да се справим с тази празнина, ние представяме WILDS, подбран бенчмарк от 10 набора от данни, отразяващи разнообразна гама от промени в разпределението, които естествено възникват в приложенията в реалния свят, като например смени в болници за идентифициране на тумори; капани през камери за наблюдение на дивата природа; и във времето и местоположението в сателитни изображения и картографиране на бедността“ (в документа, озаглавен „WILDS: A Benchmark of in-the-Wild Distribution Shifts“ от Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu и други).

Броят на такива набори от данни WILDS продължава да нараства и естеството на наборите от данни като цяло се подобрява, за да се повиши стойността на използването на данните за обучение ML/DL.

Наборът от данни на CivilComments е описан по следния начин: „Автоматичният преглед на генериран от потребителя текст — например откриване на токсични коментари — е важен инструмент за модериране на големия обем текст, написан в Интернет. За съжаление, предишната работа показа, че такива класификатори на токсичност улавят отклонения в данните за обучението и фалшиво свързват токсичността със споменаването на определени демографски данни. Тези видове фалшиви корелации могат значително да влошат производителността на модела за определени субпопулации. Ние изучаваме този проблем чрез модифициран вариант на набора от данни CivilComments” (както е публикувано на уебсайта на WILDS).

Помислете за нюансите на неприятните онлайн публикации.

Несъмнено сте се сблъсквали с токсични коментари, когато използвате почти всякакъв вид социални медии. За вас би изглеждало почти невъзможно да избегнете магически острото и ужасно съдържание, което изглежда е широко разпространено в наши дни. Понякога вулгарният материал е изтънчен и може би трябва да четете между редовете, за да разберете същността на пристрастния или дискриминационен тон или значение. В други случаи думите са очевидно токсични и не се нуждаете от микроскоп или специален пръстен за декодиране, за да разберете какво съдържат пасажите.

CivilComments е набор от данни, който е съставен, за да се опита да разработи AI ML/DL, който може да открие изчислително токсично съдържание. Ето върху какво се фокусираха изследователите, залегнали в основата на усилията: „Непреднамерената пристрастност в машинното обучение може да се прояви като системни различия в производителността за различни демографски групи, което потенциално усложнява съществуващите предизвикателства пред справедливостта в обществото като цяло. В тази статия представяме набор от показатели, независими от прага, които предоставят нюансиран поглед върху това непреднамерено отклонение, като разглеждаме различните начини, по които разпределението на резултата на класификатора може да варира в определени групи. Ние също така въвеждаме голям нов тестов набор от онлайн коментари с анотации от тълпата за препратки към самоличността. Ние използваме това, за да покажем как нашите показатели могат да бъдат използвани за намиране на нови и потенциално фини непреднамерени отклонения в съществуващите публични модели“ (в статия, озаглавена „Нюансирани показатели за измерване на непреднамерено отклонение с реални данни за класификация на теста“ от Даниел Боркан, Лукас Диксън, Джефри Соренсен, Нитум Тейн, Луси Васерман).

Ако дадете на този въпрос някакво широко съзерцателно мислене, може да започнете да се чудите как в света можете да различите кое е токсичен коментар от кое не е токсичен коментар. Хората могат радикално да се различават по отношение на това, което тълкуват като направо токсична формулировка. Един човек може да бъде възмутен от конкретна онлайн забележка или коментар, публикуван в социалните медии, докато някой друг може изобщо да не бъде раздвижен. Често се изтъква аргумент, че идеята за токсичен коментар е напълно неясна предписание. Това е като изкуството, при което обикновено се казва, че изкуството се разбира само в очите на гледащия, а също и предубедените или токсични забележки също са само в очите на гледащия.

Балдердаш, някои отвръщат. Всеки с разумен ум може да разбере дали дадена онлайн забележка е токсична или не. Не е нужно да сте ракетен учен, за да разберете кога някоя публикувана разяждаща обида е изпълнена с пристрастия и омраза.

Разбира се, обществените нрави се променят и променят през периоди от време. Това, което преди време може да не е било възприемано като обидно, днес може да се разглежда като отвратително погрешно. На всичкото отгоре неща, казани преди години, които някога са били разглеждани като неоправдано пристрастни, могат да бъдат интерпретирани отново в светлината на промените в значенията. Междувременно други твърдят, че токсичният коментар винаги е токсичен, независимо кога е бил първоначално обнародван. Може да се твърди, че токсичността не е относителна, а е абсолютна.

Въпросът с опитите за установяване на това, което е токсично, все пак може да бъде доста трудна главоблъсканица. Можем да удвоим този проблемен въпрос, като се опитаме да изработим алгоритми или AI, които могат да установят кое е кое. Ако хората изпитват затруднения да правят такива оценки, програмирането на компютър вероятно е също толкова или повече проблематично, казват някои.

Един подход за създаване на набори от данни, които съдържат токсично съдържание, включва използването на метод за краудсорсинг за оценяване или оценка на съдържанието, следователно осигуряване на човешки средства за определяне на това, което се разглежда като неблагоприятно и включващо етикетирането в самия набор от данни. След това AI ML/DL може да инспектира данните и свързаното етикетиране, което е посочено от хора, които оценяват. Това от своя страна може потенциално да служи като средство за изчислително намиране на основните математически модели. Voila, тогава ML/DL може да бъде в състояние да предвиди или изчислително да оцени дали даден коментар е вероятно да е токсичен или не.

Както е споменато в цитирания документ относно нюансираните показатели: „Това етикетиране изисква от оценителите да оценят токсичността на коментар, като избират от „Много токсичен“, „Токсичен“, „Трудно да се каже“ и „Не е токсичен“. Оценителите също бяха попитани за няколко подтипа токсичност, въпреки че тези етикети не бяха използвани за анализа в тази работа. Използвайки тези техники за оценяване, създадохме набор от данни от 1.8 милиона коментара, получени от онлайн форуми за коментари, съдържащи етикети за токсичност и идентичност. Докато всички коментари бяха етикетирани за токсичност, а подгрупа от 450,000 XNUMX коментара беше обозначена за идентичност. Някои коментари, обозначени за идентичност, бяха предварително избрани с помощта на модели, изградени от предишни итерации на етикетиране на идентичност, за да се гарантира, че хората, които оценяват тълпата, ще виждат съдържание за самоличност често“ (в цитираната статия от Даниел Боркан, Лукас Диксън, Джефри Соренсен, Нитъм Тейн, Луси Васерман).

Друг пример за стремеж към набори от данни, които съдържат илюстративно токсично съдържание, включва усилия за обучение на базирани на AI разговорни интерактивни системи за обработка на естествен език (NLP). Вероятно сте взаимодействали с НЛП системи като Alexa и Siri. Покрих някои от трудностите и ограниченията на днешното НЛП, включително особено обезпокоителен случай, който се случи, когато Alexa предложи неподходящ и опасен съвет на децата, вж. връзката тук.

Едно скорошно проучване се стреми да използва девет категории социални пристрастия, които обикновено се основават на списъка на EEOC (Комисия за равни възможности за заетост) със защитени демографски характеристики, включително възраст, пол, националност, физически външен вид, раса или етническа принадлежност, религия, инвалидност, сексуална принадлежност ориентация и социално-икономически статус. Според изследователите: „Добре е документирано, че моделите на НЛП научават социални пристрастия, но е свършена малко работа за това как тези пристрастия се проявяват в резултатите на модела за приложни задачи като отговаряне на въпроси (QA). Представяме Bias Benchmark за QA (BBQ), набор от данни от набори от въпроси, изградени от авторите, които подчертават доказани социални пристрастия срещу хора, принадлежащи към защитени класове, по девет социални измерения, подходящи за англоезичния контекст в САЩ“ (в документ, озаглавен „BBQ : Ръчно изграден еталон за отговаряне на въпроси” от Алиша Париш, Анджелика Чен, Никита Нангия, Вишак Падмакумар, Джейсън Панг, Яна Томпсън, Фу Мон Хтут, Самюел Р. Боуман).

Създаването на набори от данни, които умишлено съдържат предубедени и напълно токсични данни, е нарастваща тенденция в AI и е особено подклаждана от навлизането на AI Ethics и желанието за създаване на етичен AI. Тези набори от данни могат да се използват за обучение на модели за машинно обучение (ML) и задълбочено обучение (DL) за откриване на отклонения и установяване на изчислителни модели, водещи до социална токсичност. От своя страна, обучените за токсичност ML/DL могат да бъдат разумно насочени към друг AI, за да се установи дали целевият AI е потенциално предубеден и токсичен.

Освен това наличните обучени за токсичност ML/DL системи могат да се използват, за да покажат на създателите на AI за какво да внимават, за да могат лесно да инспектират моделите, за да видят как възникват алгоритмично пропити отклонения. Като цяло, тези усилия са в състояние да илюстрират опасностите от токсичния AI като част от етиката на AI и етичната осведоменост за AI.

На този етап от тази тежка дискусия, бих се обзаложил, че желаете някои допълнителни илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Осветлява ли появата на истински самостоятелно управлявани автомобили, базирани на AI, за полезността от набори от данни за разработване на токсичен AI и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и кормилно управление без токсичен AI

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

Съществуват множество потенциални и някой ден вероятно да бъдат реализирани пристрастия, вдъхновени от AI, които ще се изправят срещу появата на автономни превозни средства и самоуправляващи се автомобили, вижте например моята дискусия на връзката тук намлява връзката тук. Все още сме в ранните етапи на внедряването на самоуправляващи се автомобили. Докато приемането достигне достатъчен мащаб и видимост, голяма част от токсичните аспекти на AI, които прогнозирах, че в крайна сметка ще се появят, все още не са очевидни и все още не са привлекли широко обществено внимание.

Помислете за един привидно ясен въпрос, свързан с шофирането, който в началото може да изглежда напълно безобиден. По-конкретно, нека да разгледаме как правилно да определим дали да спрем за чакащи „своенравни“ пешеходци, които нямат право на преминаване на улицата.

Несъмнено сте шофирали и сте се натъкнали на пешеходци, които са чакали да пресекат улицата и въпреки това нямат право на път за това. Това означаваше, че имате право на преценка дали да спрете и да ги оставите да преминат. Можете да продължите, без да ги оставяте да пресичат и все пак да сте напълно в рамките на законните правила за шофиране за това.

Проучванията за това как човешките шофьори решават да спрат или не спират за такива пешеходци предполагат, че понякога шофьорите хора правят избора въз основа на неблагоприятни пристрастия. Шофьор човек може да погледне пешеходеца и да избере да не спре, въпреки че биха спрели, ако пешеходецът имаше различен външен вид, например въз основа на раса или пол. Разгледах това в връзката тук.

Как системите за шофиране с изкуствен интелект ще бъдат програмирани да вземат същото решение за спиране или тръгване?

Можете да обявите, че всички системи за шофиране с изкуствен интелект трябва да бъдат програмирани да спират винаги за всеки чакащ пешеходец. Това значително опростява въпроса. Наистина не трябва да се вземат някакви заплетени решения. Ако пешеходец чака да пресече, независимо дали има право на път или не, уверете се, че самоуправляващата се кола с ИИ спира, така че пешеходецът да може да пресече.

Лесна работа.

Животът никога не е толкова лесен, изглежда. Представете си, че всички самоуправляващи се автомобили спазват това правило. Пешеходците неизбежно ще осъзнаят, че системите за шофиране с изкуствен интелект са, да кажем, тласък. Всеки пешеходец, който иска да пресече улицата, ще го направи волю-неволю, когато пожелае и където и да се намира.

Да предположим, че самоуправляваща се кола се движи по бърза улица с обявеното ограничение на скоростта от 45 мили в час. Пешеходецът „знае“, че AI ще спре самоуправляващата се кола. И така, пешеходецът се втурва на улицата. За съжаление, физиката побеждава AI. Системата за шофиране с изкуствен интелект ще се опита да спре самоуправляващата се кола, но инерцията на автономното превозно средство ще пренесе многотонната измишльотина напред и ще се удари в своенравния пешеходец. Резултатът е или нараняващ, или води до смърт.

Пешеходците обикновено не опитват този тип поведение, когато зад волана е човек. Разбира се, в някои региони има очна война, която се провежда. Пешеходец гледа шофьор. Шофьорът гледа пешеходеца. В зависимост от обстоятелството, водачът може да спре или водачът може да предяви претенциите си за пътното платно и привидно да дръзне пешеходеца да се опита да наруши пътя им.

Вероятно не искаме AI да влиза в подобна война на очната ябълка, която също така или иначе е малко предизвикателство, тъй като няма човек или робот, който да седи на волана на самоуправляващата се кола (обсъдих бъдещата възможност за роботи това каране, виж връзката тук). И все пак не можем да позволим на пешеходците винаги да се справят. Резултатът може да бъде катастрофален за всички засегнати.

Тогава може да се изкушите да обърнете другата страна на тази монета и да декларирате, че системата за шофиране с AI никога не трябва да спира при такива обстоятелства. С други думи, ако пешеходецът няма надлежно право на преминаване на улицата, ИИ винаги трябва да приема, че самоуправляващият се автомобил трябва да продължи без намаляване. Голям късмет на тези пешеходци.

Такова строго и опростено правило няма да бъде добре прието от широката общественост. Хората са хора и няма да им хареса да бъдат напълно изключени от възможността да пресичат улицата, въпреки че законно им липсва право на път за това в различни условия. Можете лесно да очаквате значителен шум от обществеността и вероятно да видите реакция срещу продължаващото приемане на самоуправляващи се автомобили.

По дяволите, ако го направим, и по дяволите, ако не го направим.

Надявам се, че това ви е довело до обоснованата алтернатива, че AI трябва да бъде програмиран с подобие на вземане на решения за това как да се справите с този проблем с шофирането. Твърдо и бързо правило никога да не спираш е несъстоятелно, както и строгото правило винаги да спираш също е несъстоятелно. AI трябва да бъде разработен с някакво алгоритмично вземане на решения или ADM, за да се справи с въпроса.

Можете да опитате да използвате набор от данни, съчетан с подход ML/DL.

Ето как разработчиците на AI могат да решат да програмират тази задача. Те събират данни от видеокамери, които са разположени навсякъде около определен град, в който ще се използва самоуправляващата се кола. Данните показват кога шофьорите избират да спрат за пешеходци, които нямат право на път. Всичко се събира в набор от данни. Чрез използване на машинно обучение и дълбоко обучение данните се моделират изчислително. След това системата за шофиране с изкуствен интелект използва този модел, за да реши кога да спре или не.

Като цяло идеята е, че от каквото и да се състои местният обичай, по този начин AI ще насочва самоуправляващата се кола. Проблема решен!

Но наистина ли е решено?

Припомнете си, че вече бях посочил, че има изследователски проучвания, които показват, че човешките шофьори могат да бъдат предубедени в избора си кога да спрат за пешеходци. Събраните данни за конкретен град вероятно ще съдържат тези пристрастия. След това AI ML/DL, базиран на тези данни, вероятно ще моделира и отразява същите тези пристрастия. Системата за шофиране с AI просто ще изпълнява същите съществуващи пристрастия.

За да се опитаме да се справим с проблема, бихме могли да съберем набор от данни, който всъщност има такива пристрастия. Ние или намираме такъв набор от данни и след това обозначаваме отклоненията, или синтетично създаваме набор от данни, за да помогнем при илюстрирането на въпроса.

Ще бъдат предприети всички по-рано идентифицирани стъпки, включително:

  • Настройте набор от данни, който умишлено съдържа това конкретно отклонение
  • Използвайте набора от данни, за да обучите моделите на машинно обучение (ML) и дълбоко обучение (DL) за откриване на това специфично отклонение
  • Приложете обучените от пристрастия ML/DL към друг AI, за да установите дали целевият AI е потенциално предубеден по подобен начин
  • Предоставете на разположение обучените от пристрастия ML/DL, за да покажете на създателите на AI какво да внимават, за да могат лесно да инспектират своите модели, за да видят как възникват алгоритмично пропити отклонения
  • Илюстрирайте опасностите от предубедения AI като част от етиката на изкуствения интелект и осведомеността за етичното AI чрез този добавен конкретен пример
  • Други

Заключение

Нека да се върнем към началния ред.

Трябва да се знае човек.

Някои тълкуват, че тази невероятно разпространена поговорка предполага, че когато става въпрос за откриване на токсичен AI, трябва да отдадем дължимото доверие на изграждането и използването на токсичен AI за откриване и справяне с друг токсичен AI. Изводът: Понякога е необходим крадец, за да хване друг крадец.

Изразената загриженост е, че може би ще направим всичко по пътя си, за да започнем да правим крадци. Искаме ли да измислим AI, който е токсичен? Това не изглежда ли като луда идея? Някои яростно твърдят, че трябва да забраним целия токсичен AI, включително такъв AI, който е създаден съзнателно, дори ако се твърди, че е за героичен или галантен AI за добро предназначение.

Заглушавайте токсичен AI под каквато и умна или коварна маска, която може да възникне.

Един последен обрат по тази тема за сега. Обикновено приемаме, че тази известна реплика е свързана с хора или неща, които извършват лоши или кисели действия. Така стигаме до идеята, че е нужен крадец, за да хване крадец. Може би трябва да обърнем тази поговорка с главата надолу и да я направим по-скоро щастливо, отколкото тъжно лице.

Ето как.

Ако искаме AI, който да е безпристрастен и нетоксичен, може да се предположи, че е необходимо човек да го познава. Може би е необходимо най-голямото и най-доброто, за да разпознаете и да създадете по-нататъшно величие и доброта. В този вариант на мъдростта на мъдреца ние задържаме погледа си върху щастливото лице и се стремим да се концентрираме върху измислянето AI за добро.

Това би било по-оптимистична и удовлетворяващо весела гледна точка за това, че е необходимо да се знае човек, ако разбирате какво имам предвид.

Източник: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- полезни-включително-за-тези-автономни-самоуправляващи се-коли/