Етиката на AI и правният AI са смутени от измамни претенции, известни като AI Ethics-Washing, които са фалшиви твърдения за придържане към етичния AI, включително за автономни самоуправляващи се автомобили

Нека проучим безбройните начини, по които думите „измиване“ и „миене“ могат да бъдат разтеглени и използвани за предаване на различни бисери на мъдростта.

Знаем например, че хората понякога предупреждават, че не трябва да перете мръсното си пране на обществени места. Спомням си като дете, че възрастните често предупреждаваха, че неправилно изразено изказване може да доведе до измиване на устата ви със сапун. Друга често цитирана фраза беше, че всичко изглежда в крайна сметка излиза при прането.

Ако сте се притеснявали за нещо, с което не желаете да се свързвате, препоръчителната идея беше да видите дали можете да си измиете ръцете от него. Всички видове съображения, свързани с миенето, обикновено се въртят наоколо, включително това, че можете да бъдете измити накратко или измити. Измиването на яйцето от лицето ви е стара поговорка, която все още понякога се появява в разговорите.

Използването на цветове за представяне на вариации на пране също е сравнително добре известно. Твърди се, че идеята за варосването води началото си поне от 1500-те години. Има изразени опасения относно червено пране, лилаво пране и т.н. Бих се осмелил да твърдя, че може би зеленото е една от най-често използваните лозунги в наши дни, отнасяща се привидно до акт на празнота, когато се рекламира устойчивост и въпреки това не подкрепя твърденията с каквото и да е същество от гръбнака на говоренето.

Може да не знаете за една от най-новите версии на измиване, а именно AI Ethics washing.

Някои предпочитат да съкратят израза до Ethics Washing, въпреки че това може да доведе до известно объркване, тъй като тази привидна алтернативна формулировка може да се отнася до почти всякакъв вид измиване, ориентирано към етика. Конкретната форма на измиване на етиката, която ще обсъждам тук, се състои от етика, насочена към ИИ и всички свързани етични съображения. За по-голяма яснота бих искал да предложа, че Ethics Washing обхваща голямо разнообразие от етични измивания, които може да имат малко или нищо общо с AI per se. И това измиване на AI Ethics е особен вид Ethics Washing, което е насочено конкретно към сферата на AI.

Може би се чудите от какво точно се състои измиването на AI Ethics?

Моята обща дефиниция е, че измиването на AI Ethics може да бъде определено по следния начин:

  • Измиването на AI Ethics включва даване на устни или обличане на заявените загриженост за етиката на AI, включително понякога не само неспазване особено на етичните подходи на AI, но дори отиване дотам, че подкопаването или подкопаването на подходите на AI Ethic.

За моето текущо и обширно отразяване на AI Ethics и Ethical AI, вж връзката тук намлява връзката тук, Само за да назовем няколко.

Един бърз пример за измиване на AI Ethics може да бъде илюстративен за вас.

Да предположим, че фирма, която създава AI система, желае да уведоми света за това колко страхотен ще бъде техният AI. Фирмата решава, че един от начините за привличане на много положително внимание на медиите и социалните медии относно AI би било да се оповести, че той е създаден да бъде напълно справедлив и балансиран в начина, по който AI функционира. AI е напълно надежден. Фирмата стриктно се придържа към принципите за създаване на т.нар Отговорен AI, вижте моето покритие на връзката тук. Твърдението е, че всички преобладаващи принципи на етиката на ИИ са интегрално вплетени в системата на ИИ.

Звучи страхотно!

Само един малък проблем.

Оказва се, че фирмата не е направила нито едно от тези неща.

Те не спазваха етичните предписания на ИИ. Те казаха, че са го направили, но не го направиха. Ръководителите на фирмата и маркетинговият екип решиха, че твърдението, че стриктно са спазвали съображенията за етичен изкуствен интелект, вероятно ще бъде добре за бизнеса. Няма нужда всъщност да вършите тежката работа по справянето с тези досадни насоки за етика на AI, а вместо това просто кажете, че сте го направили.

Voila, те моментално могат да популяризират своя AI, като скочат в групата на AI Ethics.

Лесна работа.

Но това е рискован път и в действителност потенциално ще породи големи проблеми.

Фирми и лидери, които решават фалшиво да се позовават на етиката на ИИ, когато са направили малко, за да спазват Етичния ИИ, потенциално се подготвят за много последствия. Първо, ако някой ден бъдат разкрити по отношение на лъжата си за AI Ethic, те рискуват да получат сериозна репутационна реакция. Те излъгаха, че имат етиката на ИИ. Освен това, след като са били хванати в лъжа, независимо от това, че са свързани с AI Ethics, също ги вкарват в добавена гореща вода. Това е двойна лъжа.

Второ, множество правни разклонения могат да ухапят тях и тяхната фирма. Едното е, че те не са направили това, което са казали, че са направили и потенциално могат да бъдат подведени под отговорност за фалшивите си твърдения. Друго е, че техният изкуствен интелект вероятно ще в крайна сметка нарушава закони, включващи социално чувствителни области, като проява на неправомерни пристрастия и дискриминационни начини. Списъкът с правни проблеми е дълъг и в крайна сметка може да принуди фирмата да води скъпоструващи съдебни битки и евентуално да потопи целия кораб.

Защо, по дяволите, една фирма и нейните лидери биха избрали да използват измиване на AI Ethics?

Е, може да бъде малко скъпо да се включат етични практики на AI, въпреки че контрааргументът е, че в крайна сметка цената ще бъде лесно надвишена от ползите от наличието на AI, който е истински и с повишен калибър в придържането към подходите на AI Ethics. Независимо от това, някои фирми биха предпочели да извадят своя AI възможно най-скоро, а по-късно смятат, че ще се тревожат за последствията от това, че не са взели предвид етичния AI по време на процеса на разработка.

Старата линия изглежда се оправя, която се състои в това да ми плати сега или да ми плати по-късно. Някои лидери и фирми смятат, че си струва да хвърлите заровете и да се надяват, че няма да им се наложи да поемат цената за плащане по-късно, когато изберат да предотвратят аспектите на плащането ми сега. Бих твърдял, че няма безплатен обяд, когато става въпрос за етиката на ИИ. Вие или изпълнявате своята част, или носите последствията.

Това не означава, че няма много място за въртене във всичко това.

Фирмите могат да потопят пръстите си в етиката на ИИ и след това да се опитат да преувеличат колко много са направили. Тяхното потенциално предположение е, че ще имат достатъчна защита, за да противодействат на всякакви обвинения, че изобщо не са включили етика на AI. Те могат да посочат някаква форма на несериозни дейности по етика на AI, които могат да ги извадят от куката. По този начин дебатът след това се измества от това, че не са направили никакви усилия по етика на ИИ и вместо това става дали са направили достатъчно или не.

Това е аргумент, който може да продължи почти безкрайно и да позволи на доставчика на пране на AI Ethics много място за маневриране.

Част от хлабавите аспекти е, че все още няма договорени универсални и окончателно приложими стандарти относно етиката на ИИ. Без сплотен и изчерпателен набор от показатели, всякакви дискусии относно това дали етиката на ИИ се спазва правилно, ще бъдат слаби и замъглени. Фирмата ще настоява, че са направили достатъчно. Аутсайдер или друго лице, което твърди, че фирмата не е направила достатъчно, ще има тежка битка, демонстрираща подобно контраспорване. Неяснотата може да царува.

Преди да се заемем с още малко месо и картофи за съображенията за дива и вълна, лежащи в основата на измиването на AI Ethics, нека установим някои допълнителни основи по дълбоко интегрални теми. Трябва за кратко да се потопим в етиката на изкуствения интелект и особено в навлизането на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка извършват и поддържат AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират AI, подлежат на придържане към понятията за етика на AI. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека сега да се върнем към темата за измиването на AI Ethics.

Има четири основни варианта на измиване на AI Ethics, които обикновено виждам да се случват (ще ги обясня след малко):

1) Измиващите етика на ИИ, които не знаят, че са: Измиване на етиката на ИИ от невежество или неграмотност относно ИИ и/или Етика на ИИ

2) Уредите за етика на ИИ, които попадат в него: Измиване на AI Ethics чрез непреднамерено приплъзване, макар че иначе е истинско за AI Ethics и AI

3) Етични шайби, които се разтягат тънко: Измиване на етиката на ИИ с целенасочено намерение, макар и само за малко и понякога почти извинително (или не)

4) Измиващите етика на ИИ, които знаят и нагло го търгуват: AI Ethics се измива изцяло и чрез коварен и често скандален дизайн

Като цяло бих предложил четирите варианта да варират от най-невинния до най-виновния, до осъзнаването на това какво е прането на AI Ethics. Нека преминем през всеки от четирите, като започнем от първия и стигнем до доста срамния четвърти.

Първо, имате такива, които са донякъде неизмити в това, че не знаят какво е етика на AI, те не знаят какво е прането на AI Ethics и вероятно дори не знаят много за AI. Може да се каже, че са невежи или неграмотни по тези теми. За тях те вероятно извършват измиване на AI Ethics и сляпо и блажено не осъзнават, че го правят.

Това е тъжно.

Може да бъде особено лошо, ако измиването на AI Ethics се извършва от голяма новинарска агенция или високопоставен влиятелен човек в социалните медии. Може да са били хранени с легло с лъжи и те не са проверили тези лъжи. Междувременно те използват своя обхват и влияние, за да увековечават твърденията за измиване на AI Ethics. Тъжно и още по-лошо, че прави лоша услуга на обществото. Срам за тези, които се оставят да бъдат заблудени. Те трябва да се помъдрят. Не забравяйте, че да бъдеш заблуден и да изглеждаш глупав са близки братовчеди.

Следващото по ред е измиването на AI Ethics, което е пропуск. Представете си, че една фирма се справя доста добре в спазването на етиката на ИИ. Можем да ги поздравим за това. За съжаление, да предположим, че в някакъв момент те направят съобщение за своя AI, което не е добре поддържано от гледна точка на етиката на AI. Ако това е относително безобидно твърдение или неволна грешка, можем да им предоставим известна свобода. Разбира се, ако точката, която са направили, е извънредно над границата, приплъзването не е толкова лесно да се пренебрегне. Има една известна репутация, която отнема цяла вечност, за да се изгради репутация и въпреки това отнема само кратък момент, за да я разруши напълно.

След това влизаме в последните две от четирите категории.

Това са виновниците, които са напълно наясно с измиването на AI Ethics и съзнателно с явно намерение решават да го използват, може би като част от корпоративна стратегия или чрез други божествени средства. Основната разлика между последните две е, че измиването на AI Ethics може да бъде от незначително естество или може да бъде от значително и решаващо естество. Имате някои, които избират да разтягат нещата и само леко да надхвърлят линията. Има и други, които са готови да доведат прането на AI Ethics до крайност.

Може би си мислите, че със сигурност всяко екстремно измиване на AI Ethics трябва да е очевидно и че екстремистът ще бъде хванат с ръка в буркана с бисквитки. Всички биха видели, че императорът няма дрехи. За съжаление, като се има предвид цялостното объркване относно AI и AI Ethics в света днес, има достатъчно мътност, че дори екстремното измиване на AI Ethics може да получи безплатен пропуск.

Това може да бъде доста досадно за онези, които са на страната на сериозността и трезвостта по отношение на етиката на ИИ. Те наблюдават как някой друг хвърля всякакви помии, които са изключително очевидни при прането на AI Ethics. Екстремистът получава масово медийно внимание. Те имат своите пословични 15 минути слава. Тези, които вършат истинската работа и правилното нещо, когато става дума за етиката на изкуствен интелект, могат да се почувстват с право раздразнени и оправдано разстроени, когато измиването на AI Ethics се предприема безпроблемно от други на пазара.

Може да се оприличи почти на сок и допинг, които се случват в спорта. Спортист, който е вложил сърцето и душата си, за да стане естествено първокласен спортист, може да бъде напълно озадачен, ако някой друг успее да се състезава на същото ниво и го направи чрез използването на забранени лекарства за повишаване на ефективността. Трябва ли да извикате другия спойлер? Трябва ли да избереш тихо да приемаш и тези лекарства, борейки се с огъня с огън? Това е главоблъсканица. За моята дискусия за това как се случва сок или допинг в областта на AI, вж връзката тук.

След като покрихме малко за измиването на AI Ethics, можем да представим куп други свързани фрази, които са еднакво в същата арена.

Ето няколко, които можем да разгледаме накратко:

  • Театър по етика на ИИ
  • Пазаруване на AI Ethics
  • AI Ethics Bashing
  • AI Етична защита
  • AI Ethics Fairwashing

Нека разгледаме накратко всяка една от тези фрази. Не всички са съгласни с това, което всяка фраза точно обозначава, така че ще споделя с вас моите общи впечатления.

Театър по етика на ИИ

Театърът на AI Ethics може да бъде донякъде подобен на измиването на AI Ethics, тъй като идеята е да се направи значително показване на спазването на правилата на AI Ethic по обмислен сценичен и церемониален начин. Ако фирмата, която провежда цирка или театъра на AI Ethics, наистина е спазвала практиките на AI Ethic, можете да аргументирате, че те справедливо трябва да могат да го направят. Всъщност можете да твърдите, че това, надяваме се, ще вдъхнови другите също да спазват етиката на ИИ.

От друга страна, изглежда, че театърът на AI Ethics обикновено прекалява. Циркът да имаш всички тези понита и слонове може да преувеличава това, което наистина е било предприето. Това от своя страна започва да влиза във втората, третата или четвъртата категория от гореспоменатите AI Ethics измивания. Остава да разберем дали театърът е повече добър, отколкото лош (като вдъхновяващ), или повече лош, отколкото добър (евентуално стимулиращ измиването на AI Ethics от други).

AI Ethics Пазаруване

Представете си, че една компания ще изгради AI система и осъзнава, че те трябва да включват аспекти на етиката на AI по време на жизнения цикъл на разработка на AI. Кои от многото насоки за етика на ИИ трябва да използват?

Избирането на няколко от тях наведнъж може да бъде объркващо и да направи усилията им за ИИ твърде обемисти. Вероятността е, че усилията за разработка ще бъдат по-склонни да спазват практиките за етика на ИИ, ако има един-единствен вътрешно приет набор, към който всички могат лесно да се позовават и да осмислят.

Добре, така че един от начините да стигнете до набор от принципи на AI Ethics би бил да изберете само един от многото налични. Друго би било да вземете няколко комплекта и да се опитате да ги обедините заедно. Проблемът със сливането може да бъде, че изразходвате много ценна енергия и време за дебати как най-добре да обедините наборите в едно цялостно цяло. Този вид внимание вероятно ще ви отклони от продължаването на процеса на разработка, плюс това може да накара екипа на AI да се ядоса само заради остри дебати, които може да са възникнали по време на дейността по сливането на AI Ethics.

Като цяло може да се опитате да насочите вниманието си към набор от насоки за AI Ethics, които смятате, че ще бъдат най-лесни за възприемане. Това би изглеждало напълно добре. Защо да правим живота по-труден, отколкото вероятно вече е? На същия дъх, ако предположим, че изберете набор от AI Ethics, който е разводнен. Вие се стремите да направите най-малкото, което можете да направите. Искате да държите главата си високо, че сте спазвали етиката на ИИ, като същевременно тайно избирате минималистичното или може би дори по-малко от групата.

Някои биха нарекли това като пазаруване на AI Ethics.

Вие пазарувате наоколо, за да намерите принципите на етиката на AI, които ще ви дадат най-лесния път да твърдите, че спазвате етиката на AI. Това има смисъл, тъй като защо трябва да правите повече, отколкото е необходимо? Това обаче може да бъде изкривено, като се намери тънко завоалиран набор от етика на AI и се вкопчи в него, сякаш е здрав и добросъвестен, когато реалността е, че е рядък и маргинален.

AI Ethics Bashing

Идеята за нападане на AI Ethics е донякъде ясна.

Вие унижавате или очернявате естеството и използването на етичните предписания на ИИ. Често срещана форма на дразнене би била да се настоява, че насоките за етика на ИИ са безполезни и не си струват хартията, на която са отпечатани. Друга популярна забава е, че етиката на AI е академично упражнение, което няма нищо общо с реалния свят. Има дори увещание, че етиката на AI е лоша, вероятно защото осигурява фалшиво прикритие за тези, които искат да изглеждат така, сякаш разработват AI правилно. По този начин етиката на AI е схема за прикриване.

Няма да разглеждам феномена на AI Ethic bashing и ви предлагам да видите моето отразяване на това защо тези удари са или грешни, или поне погрешни, вж. връзката тук.

Етична защита на ИИ

Защитата на AI Ethics обикновено се отнася до идеята, че AI Ethics е измамен вид щит, който може да скрие или скрие лошите актьори и лошите усилия на AI Ethic. Намеквах за това многократно по време на тази дискусия.

Има непрекъснато притеснение, което някои гордо ще покажат, че използват етика на AI и основната реалност е, че те не правят почти нищо подобно. За тези, които казват, че трябва да се отървем изцяло от щита, съм склонен да отвърна, че това е подобно на изхвърляне на бебето с водата за къпане.

AI Етика Fairwashing

Справедливостта е важна.

Може би си спомняте, че когато обсъждах правилата за етика на ИИ, едно от най-често идентифицираните насоки за етика на ИИ се състои в опит да се гарантира, че ИИ е честен или проявява подобие на справедливост. Това доведе до крилатата фраза на „справедливо измиване“, която понякога се използва, за да предизвика възможността за дадена AI система да се казва или твърди, че е справедлива, когато може да не е честна или има малко доказателства в подкрепа на това, че е справедлива. Това е малко смесица от измиване на AI Ethics с концептуалното съображение, че AI е справедлив, следователно бързият начин да се изрази това е, като се каже, че има потенциално честно пране това може да се случи. Изследователите описват въпроса по следния начин: „По-специално, поради нарастващото значение на концепциите за справедливост в машинното обучение, една компания може да се изкуши да извърши справедливо измиване, което ние определяме като насърчаване на погрешното схващане, че моделите на обучение, използвани от компанията са справедливи, докато може и да не е така“ (от Улрих Айводжи, Хироми Араи, Оливие Фортино, Себастиен Гамбс, Сатоши Хара и Ален Тап в „Fairwashing: The Risk of Rationalization“).

Има още един обрат за измиването на AI Ethics, който трябва да обмислите.

В малко макроскопичен мащаб има изразена загриженост, че възходът на етиката на ИИ е щит или прикритие за нещо още по-велико. Може би сте наясно, че се полагат много усилия за установяване на закони относно управлението на AI. Това се случва по целия свят. Силни усилия се полагат в ЕС, които съм отразил в моите колони, а също и в САЩ, както и в много страни.

Някои предполагат, че приемането на етиката на AI може да бъде средство за предотвратяване на приемането на тези закони. Компаниите могат привидно убедително да твърдят, че нови закони не са необходими, защото използването на етиката на ИИ по подходящ начин се справя с всякакви проблеми с ИИ. Етиката на ИИ обикновено се класифицира като форма на „меко право“ и обикновено е доброволна (при равни други условия). Законите за ИИ се класифицират като така наречените „твърди закони“ и не са доброволна конструкция (по принцип).

Обикновено се казва, че фирмите в изобилие предпочитат меките закони пред твърдите, което им дава повече свобода и свобода на действие. Не всички са съгласни с това мнение. Някои казват, че меките закони позволяват на фирмите да се измъкнат с неподходящи усилия и единственият начин да ги оправят е чрез приемането на твърди закони. Други посочват, че фирмите понякога предпочитат твърди закони, които могат да осигурят по-ясно поле за игра. Твърдите закони потенциално могат да накарат всички играчи да спазват едни и същи правила. Меките закони позволяват един вид избиране, като по този начин създават объркване и нарушават игралното поле.

Ето как изследванията изобразяват измиването на AI Ethics сред този по-велик поглед върху това, което може да се случи: „От една страна, терминът е бил използван от компаниите като приемлива фасада, която оправдава дерегулацията, саморегулирането или управляваното от пазара управление, и все повече се идентифицира с стремежа на технологичните компании да възприемат привидности за етично поведение. Ние наричаме такава нарастваща инструментализация на етичния език от технологичните компании „измиване на етиката“. Отвъд съветите по етика на ИИ, измиването на етиката включва други опити за опростяване на стойността на етичната работа, които често са част от корпоративна комуникационна стратегия: наемане на вътрешни морални философи, които нямат малка власт да оформят вътрешните политики на компанията; фокусът върху хуманния дизайн – например подтикване на потребителите да намалят времето, прекарано в приложения – вместо да се справят с рисковете, присъщи на съществуването на самите продукти; финансирането на работата по „справедливите“ системи за машинно обучение, което положително замъглява по-дълбоките въпроси около по-широките въздействия на тези системи върху обществото“ (от Elettra Bietti, „From Ethics Washing to Ethics Bashing: A View on Tech Ethics from Within Moral Philosophy,“ Сборник доклади от Конференцията за справедливост, отчетност и прозрачност през 2020 г).

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Появата на базирани на изкуствен интелект истински самоуправляващи се автомобили осветява ли нещо за измиването на AI Ethics и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и етично измиване с изкуствен интелект

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

Почти сигурно сте виждали заглавия, които провъзгласяват смелото твърдение, че автономните превозни средства са тук и самоуправляващите се автомобили вече са усъвършенствани. Обикновено се има предвид, че аспектите на автономността са решени. Ние изведохме AI, който е толкова добър, колкото човешките шофьори, вероятно дори по-добър от хората.

Само със сигурност да избухне този балон и да изправя рекорда, това все още не е така.

Ние знаем, че човешките шофьори в Съединените щати попадат в около 2.5 милиона автомобилни катастрофи годишно, което води до над 40,000 XNUMX смъртни случая годишно, вижте моята статистика на връзката тук. Всеки от привидно разумен род би приветствал системите за шофиране с AI, ако може да шофира толкова безопасно или по-безопасно от човешките шофьори. Освен това, надеждата е, че ще изпитаме мобилност за всички, позволявайки на тези, които днес са ограничени в мобилността, да имат превозни средства, управлявани от AI, които осигуряват лесен достъп за удобен и евтин транспорт.

Някои експерти шокиращо отиват на „допълнителната миля“ и правят позорното твърдение, че самоуправляващите се автомобили няма да бъдат катастрофирани. Това е абсолютно лудо и напълно невярно. Още по-лошото е, че създава завишени очаквания, които не могат да бъдат изпълнени. Ако успеете да убедите населението, че самоуправляващите се автомобили не могат да се катастрофират, те ще извикат и извикат в момента, в който възникне дори един случай на катастрофа, свързана със самостоятелно шофиране. За моето подробно обяснение защо неразрушимата претенция е глупава и лоша услуга на обществото, вижте моето отразяване на връзката тук.

Може да се каже, че всички тези видове преувеличения или други лъжи са обхванати от предписанията за етика на AI, тъй като ако спазвате принципите на AI Ethic, не трябва да правите тези видове диви и необосновани твърдения. По този начин тези погрешни изявления и неистини лесно влизат в рубриката на AI Ethics washing.

Измиването на AI Ethics, свързано с автономни превозни средства и самоуправляващи се автомобили, е широко и диво изобилно, за съжаление. Едно непринудено и необичайно търсене в интернет ще ви покаже милиони глупави и неподкрепени твърдения за автономни превозни средства. Това не се ограничава само до хора, които са в собствените си блогове. Големите новинарски агенции се замесват в това. Големите компании се замесват в това. Стартъпите се увличат в това. Фирмите за рисков капитал се замесват в това. Акционерите се забъркват в това. И така нататък.

Бих казал с мрачна висока увереност, че измиването на AI Ethics в този конкретен домейн е безкрайно разпространено.

Специализиран вариант на фразата за измиването на AI Ethics, която включва автономия и автономни системи, е понятието autonowashing. Ето авторката Лиза Диксън, която описва това: „Адаптирано за автоматизация, автоматичното измиване се дефинира като практика на отправяне на непроверени или подвеждащи твърдения, които представят погрешно подходящото ниво на човешки надзор, изисквано от частично или полуавтономен продукт, услуга или технология. Autonowashing може също да се разшири до напълно автономни системи, в случаите, когато възможностите на системата са преувеличени отвъд това, което може да бъде изпълнено надеждно, при всякакви условия. Autonowashing прави нещо да изглежда по-автономно, отколкото е в действителност. Целта на автоматичното измиване е да се разграничи и/или да се предложи конкурентно предимство на даден обект, чрез използването на повърхностно многословие, предназначено да предаде ниво на надеждност на системата, което не е в съответствие с техническите възможности на системата. Autonowashing може да се случи и по невнимание, когато едно несъзнателно повтаря грешна информация за възможностите на автоматизирана система на друг. Autonowashing е форма на дезинформация и в известен смисъл е вирусна” (Транспортни изследвания Интердисциплинарна перспектива, „Autonowashing: Зеленото измиване на автоматизацията на превозните средства“, 2020).

Като напомняне от по-ранното ми указание, има четири основни варианта на измиване на AI Ethics, които обикновено виждам да се случват и те лесно се намират и в областта на автономните превозни средства:

  • Измиващите етика на ИИ, които не знаят, че са: Измиване на етиката на ИИ от невежество или неграмотност относно ИИ и/или ИИ Етика в автономни превозни средства
  • Уредите за етика на ИИ, които попадат в него: Измиване на AI Ethics чрез непреднамерено приплъзване, макар че иначе е истинско за AI Ethics и AI в автономни превозни средства
  • Етични шайби, които се разтягат тънко: Измиване на AI Ethics с целенасочено намерение, макар и само за малко и понякога почти извинително (или не) в автономни превозни средства
  • Измиващите етика на ИИ, които знаят и нагло го търгуват: AI Ethics измиване изцяло и чрез коварен и често скандален дизайн в автономни превозни средства

Освен това можете лесно да видите примери за други видове измиване на AI Ethics и свързаните заболявания на измиване в областта на автономността, включително:

  • Театър по етика на ИИ в автономни превозни средства и самоуправляващи се автомобили
  • Пазаруване на AI Ethics в автономни превозни средства и самоуправляващи се автомобили
  • AI Ethics Bashing в автономни превозни средства и самоуправляващи се автомобили
  • AI Етична защита в автономни превозни средства и самоуправляващи се автомобили
  • AI Ethics Fairwashing в автономни превозни средства и самоуправляващи се автомобили

Заключение

Измиването на AI Ethics е навсякъде около нас. Къпем се в него.

Надявам се, че като привлечете вниманието ви към този сериозен и на пръв поглед безкраен въпрос, ще можете да разберете кога ще бъдете измивани от етиката на ИИ. Може да е трудно да се разбере. Тези, които извършват измиване на AI Ethics, могат да бъдат изключително умни и коварни.

Един удобен трик е да смесите в прането малко истина, която се смесва с лъжи или преувеличения. Тъй като може лесно да откриете и да се съгласите с истинната част, вие потенциално сте склонни да повярвате, че другата невярна или измамна част също е вярна. Изящна и гадна форма на измама.

Да го наречем свинщина.

Можем ли да измием устата на онези, които откровено извършват измиване на AI Ethics?

Съжалявам да съобщя, че не се прави толкова лесно, колкото може да се иска. Като се има предвид това, само защото улавянето и извикването на пране на AI Ethics може да е трудно и понякога да прилича на Сизиф, бутащ тежък камък нагоре по хълм, трябва да опитаме.

В случай, че не знаете, Зевс му беше възложил да направи този камък, бутащ за вечността и огромната скала завинаги ще се търкаля обратно, след като усилието достигне върха. Мисля, че сме изправени пред същото затруднение, когато става въпрос за измиване на AI Ethics.

Винаги ще има повече измиване на AI Ethics, което трябва да се измие. Това е сигурна гаранция, в която няма нищо странно.

Източник: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- измиване-които-са-фалшиви-твърдения-за-придържане към-етични-ai-включително-за-автономни-самоуправляващи се-автомобили/