Етика на изкуствения интелект, която казва, че изкуственият интелект трябва да се използва особено, когато човешките пристрастия са много

Хората трябва да опознаят своите ограничения.

Може би си спомняте сходната известна реплика за познаването на нашите ограничения, изречена грубо от героя Мръсния Хари във филма от 1973 г., озаглавен Magnum Force (по думите на актьора Клинт Истууд в неговата запомняща се роля на инспектор Хари Калахан). Общата представа е, че понякога сме склонни да пренебрегваме собствените си граници и съответно да се забъркваме в гореща вода. Независимо дали поради високомерие, егоцентричност или просто слепи за собствените ни възможности, правилото да осъзнаваме и да вземаме предвид нашите склонности и недостатъци е изключително разумно и полезно.

Нека добавим нов обрат към мъдрия съвет.

Изкуственият интелект (AI) трябва да опознае своите ограничения.

Какво имам предвид с този вариант на почитаната крилата фраза?

Оказва се, че първоначалният стремеж съвременният AI да бъде използван като надеждно средство за решаване на световните проблеми е станал опетнен и напълно замъглен от осъзнаването, че днешният AI наистина има някои доста сериозни ограничения. Тръгнахме от приповдигнатите заглавия на AI за добро и все повече се оказваме затънали в AI за лошо. Виждате ли, много системи за изкуствен интелект са разработени и използвани с всякакви неприятни расови и полови пристрастия и безброй други подобни ужасяващи неравенства.

За моето обширно и текущо отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Пристрастията, които се откриват в тези AI системи, не са от така наречения „умишлен“ тип, който бихме приписали на човешкото поведение. Споменавам това, за да подчертая, че днешният AI не е разумен. Въпреки тези гръмки заглавия, които предполагат друго, просто няма никъде AI, който дори да се доближава до разума. Освен това не знаем как да вкараме AI в групата на чувствителността, освен това никой не може да каже със сигурност дали някога ще постигнем чувствителност на AI. Може би някой ден ще се случи, а може би не.

И така, моята гледна точка е, че не можем да определим конкретно намерение за вида ИИ, който притежаваме в момента. Като се има предвид това, можем изобилно да присвоим намерение на тези, които създават системи с изкуствен интелект. Някои разработчици на AI не са наясно с факта, че са създали AI система, която съдържа неприятни и вероятно незаконни отклонения. Междувременно други разработчици на AI осъзнават, че внасят пристрастия в своите AI системи, като потенциално го правят по целенасочен неправилен начин.

Така или иначе, резултатът все още е неприличен и вероятно незаконен.

Полагат се непрестанни усилия за обнародване на принципите на етиката на ИИ, които ще просветят разработчиците на ИИ и ще осигурят подходящи насоки за избягване на вграждането на пристрастия в техните системи за ИИ. Това ще помогне по два начина. Първо, тези, които създават AI, вече няма да имат готово извинение, че просто не са били наясно какви правила трябва да се следват. Второ, онези, които се отклоняват от условията на Етичния изкуствен интелект, ще бъдат по-лесно заловени и показани като избягващи това, което са били предупредени да правят и да не правят.

Нека отделим малко време, за да разгледаме накратко някои от ключовите правила на етиката на ИИ, за да илюстрираме за какво трябва да мислят създателите на ИИ и какво трябва да предприемат стриктно от позицията на етиката на ИИ.

Както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително с прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както можете директно да се досетите, опитът да се определят спецификите, залегнали в основата на тези принципи, може да бъде изключително труден. Нещо повече, усилието да се превърнат тези общи принципи в нещо напълно осезаемо и достатъчно подробно, за да се използва при изработването на AI системи, също е твърд орех. Като цяло е лесно да се направи известно размахване относно това какво представляват етиката на ИИ и как трябва да се спазват като цяло, докато ситуацията е много по-сложна, когато кодирането на ИИ трябва да бъде истинската гума, която посреща пътя.

Принципите на етиката на ИИ трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ. Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, подлежат на спазване на понятията за етика на AI. Моля, имайте предвид, че е необходимо село, за да се създаде и използва AI. За което цялото село трябва да е нащрек относно етиката на ИИ.

Както и да е, сега, след като разбрах, че AI може да съдържа пристрастия, може би всички можем да се съгласим с тези два очевидни факта:

1. Хората могат да имат множество неблагоприятни пристрастия и да действат според тях

2. AI може да има множество неблагоприятни пристрастия и може да действа спрямо тези пристрастия

Донякъде ненавиждам да поставям хора срещу AI в този контекст, тъй като това може по някакъв начин да означава, че AI има съзнателни способности наравно с хората. Това със сигурност не е така. Ще се върна за момент към нарастващите опасения относно антропоморфизирането на ИИ малко по-късно в тази дискусия.

Кое е по-лошо, хората, които проявяват неблагоприятни пристрастия, или ИИ, който го прави?

Смея да твърдя, че въпросът поставя един от онези тъжни избори. Може да се твърди, че това е пословично по-малката от две злини. Бихме искали хората да не въплъщават неблагоприятни пристрастия. Освен това бихме искали дори хората да имат неблагоприятни пристрастия, те да не действат според тези пристрастия. Същото може да се каже и за AI. Бихме искали AI да не вгражда неблагоприятни отклонения и дори да има такива вътрешно кодирани отклонения, AI поне да не действа спрямо тях.

Желанията обаче не управляват непременно света (за моя анализ на надигащото се и обезпокоително подобие на т.нар. AI Wish Изпълнение от обществото като цяло, вижте връзката тук).

Добре, ние очевидно искаме хората да знаят своите ограничения. Важно е да разпознавате кога имате неблагоприятни пристрастия. Също толкова важно е да се опитвате да предотвратите вливането на тези неблагоприятни пристрастия във вашите действия и решения. Бизнесът днес опитва всякакви подходи, за да предпази служителите си от попадане в ужасните клопки на неблагоприятните пристрастия. На служителите се предоставя специализирано обучение за това как да изпълняват работата си по етичен начин. Процесите са оформени около служителите, за да ги предупреждават, когато изглежда, че проявяват неетични нрави. И така нататък.

Друго средство за справяне с хората и техните неблагоприятни пристрастия би било автоматизирането на човешката работа. Да, просто премахнете човека от цикъла. Не позволявайте на човек да изпълнява задача за вземане на решение и вероятно вече нямате никакви продължаващи притеснения относно отношението на човека към всякакви неблагоприятни пристрастия. Няма замесен човек и по този начин проблемът с потенциалните човешки пристрастия изглежда е разрешен.

Повдигам това, защото сме свидетели на постепенно и мащабно преминаване към използване на AI по начин за вземане на решения в алгоритми (ADM). Ако можете да замените човешки работник с AI, шансовете са, че ще възникнат много ползи. Както вече споменахме, вече няма да се тревожите за човешките пристрастия на този човешки работник (този, който вече не върши тази работа). Шансовете са, че AI ще бъде по-евтин като цяло в сравнение с дългосрочен времеви хоризонт. Вие се освобождавате от всички други разнообразни трудности, които идват неразделна част от човешките работници. и т.н.

Едно предложение, което набира популярност, изглежда е следното: Когато се опитвате да решите къде най-добре да поставите AI, първо погледнете към настройки, които вече водят до неблагоприятни човешки пристрастия от вашите работници и за които тези пристрастия подбиват или по друг начин прекомерно усложняват определени задачи за вземане на решения.

Изводът е, че би изглеждало разумно да спечелите най-много от парите си по отношение на инвестирането в AI, като се насочите директно към силно експонирани човешки задачи за вземане на решения, които са трудни за контролиране от гледна точка на вливане на неблагоприятни пристрастия. Премахнете човешките работници в тази роля. Заменете ги с AI. Предположението е, че AI няма да има такива неблагоприятни отклонения. Следователно можете да вземете тортата си и също да я изядете, а именно да поемете задачите за вземане на решения и да го направите без етичния и правен призрак на неблагоприятни пристрастия.

Когато изведете това с молив, ROI (възвръщаемостта на инвестицията) вероятно ще направи приемането на AI лесен избор.

Ето как обикновено се случва това.

Разгледайте цялата си фирма и се опитайте да идентифицирате задачите за вземане на решения, които влияят на клиентите. Кои от тези задачи е най-вероятно да бъдат неподходящо повлияни, ако работниците въплъщават неблагоприятни пристрастия? Ако вече сте се опитали да овладеете тези пристрастия, може би сте оставили нещата да останат както са. От друга страна, ако пристрастията продължават да се появяват отново и усилията да ги премахнете са тежки, помислете дали да не включите подходящ AI в тази роля. Не дръжте работниците в микса, тъй като те могат да отменят AI или да бутнат AI обратно в бездната на неблагоприятните пристрастия. Също така се уверете, че изкуственият интелект може да изпълни задачата умело и че сте уловили в достатъчна степен аспектите на вземане на решения, необходими за изпълнение на работата.

Изплакнете и повторете.

Осъзнавам, че това изглежда като ясна идея, но осъзнавам, че има много начини, по които замяната на човешки работници с ИИ лесно може да се обърка. Много компании бяха нетърпеливи да предприемат подобни действия и не обмисляха внимателно как да го направят. В резултат на това те често създаваха много по-голяма бъркотия, отколкото са имали в ръцете си в началото.

Искам да поясня и да подчертая, че AI не е панацея.

Говорейки за това, има един огромен проблем относно чистотата на привидно изхвърляне на пристрастните към хората лица, вземащи решения с предполагаемо безпристрастния AI. Проблемът е, че може просто да замените един набор от неблагоприятни пристрастия с друг. Съгласно по-ранната индикация, AI може да съдържа неблагоприятни отклонения и може да действа спрямо тези отклонения. Правенето на нагло предположение, че замяната на предубедени хора с безпристрастен AI не е всичко, което се пропуква.

Накратко, ето сделката, когато разглеждаме въпроса строго от факторите на пристрастията:

  • AI няма неблагоприятни пристрастия и следователно базираният на AI ADM е удобен за внедряване
  • AI има същите неблагоприятни пристрастия като заменените хора и по този начин базираният на AI ADM е обезпокоителен
  • AI въвежда нови неблагоприятни пристрастия извън тези на заменените хора и вероятно ще влоши нещата съответно
  • Първоначално изкуственият интелект изглежда добре, но след това постепенно се променя в неблагоприятни отклонения
  • Други

Можем накратко да разопаковаме тези възможности.

Първият е идеализираната версия на това, което може да се случи. AI няма неблагоприятни пристрастия. Поставяте AI на място и той върши работата превъзходно. Добре за теб! Разбира се, човек би се надявал, че по някакъв ловък начин сте се справили с изместването на човешки работници поради включването на AI.

Във втория случай вие поставяте AI и откривате, че AI проявява същите неблагоприятни пристрастия, които са имали човешките работници. Как е възможно това? Често срещан начин за попадане в този капан е използването на машинно обучение (ML) и задълбочено обучение (DL) въз основа на събрани данни за това как хората в ролята са вземали решенията си преди това.

Позволете ми момент да обясня.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вършили работата години след години, включват неблагоприятни пристрастия, шансовете са данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели на машинно обучение или задълбочено обучение просто ще се опита да имитира математически данните по съответния начин. Няма подобие на здрав разум или други разумни аспекти на моделирането само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс, че дори и при относително обширни тестове, все още ще има отклонения, вградени в моделите за съвпадение на шаблони на ML/DL.

Като цяло може да се върнете на изходна позиция. Същите неблагоприятни пристрастия на хората сега са изчислително отразени в AI системата. Не сте изкоренили пристрастията.

Още по-лошо, може да е по-малко вероятно да осъзнаете, че AI има пристрастия. В случая с хората обикновено може да сте нащрек, че хората имат неблагоприятни пристрастия. Това е базово очакване. Използването на AI може да приспи лидерите да повярват, че автоматизацията напълно е премахнала всякакъв вид човешки пристрастия. По този начин те се настройват, че са се простреляли в крака. Те се отърваха от хората с привидно известни неблагоприятни пристрастия, като бяха заменени от ИИ, за който се смяташе, че няма такива пристрастия, и въпреки това сега пуснаха в употреба ИИ, пълен със същите пристрастия, за които вече е известно, че съществуват.

Това може да направи нещата наистина разкривени. Може да сте премахнали други парапети, използвани с човешките работници, които са били създадени, за да открият и предотвратят появата на тези вече очаквани човешки пристрастия. AI вече има свобода на действие. Нищо не е на място, за да го хванете, преди да действате. След това изкуственият интелект може да започне да ви води по труден път на огромното натрупване на предубедени действия.

И вие сте в неудобната и може би отговорна поза, че някога сте знаели за пристрастията и сега сте позволили на тези пристрастия да предизвикат хаос. Може би едно нещо е никога да не сте се сблъсквали с такива неблагоприятни пристрастия и тогава внезапно изневиделица AI да ги изстрелва. Може да се опитате да извините това с отвличащия внимание тип „кой би предположил“ (може би не много убедително). Но сега да сте настроили AI, който извършва същите неблагоприятни пристрастни действия като преди, е, извиненията ви стават все по-тънки и слаби.

Обрат в това води до това, че ИИ проявява неблагоприятни отклонения, които не са били срещани преди, когато хората са изпълнявали задачата. Може да се каже, че това е може би по-трудно да се предотврати, тъй като се състои от „нови“ пристрастия, които фирмата не е търсила преди. В крайна сметка обаче извиненията може да не ви осигурят особено облекчение. Ако AI системата е навлязла както в неетична, така и в незаконна територия, вашата гъска може да е сготвена.

Друг аспект, който трябва да имате предвид, е, че AI може да започне добре и след това да си проправи път към неблагоприятни отклонения. Това е особено вероятно, когато използването на машинно обучение или дълбоко обучение се извършва постоянно, за да се поддържа AI актуален. Независимо дали ML/DL работи в реално време или периодично прави актуализации, вниманието трябва да бъде дали AI евентуално поглъща данни, които сега съдържат отклонения и които преди не са присъствали.

За лидерите, които си мислят, че получават безплатен обяд, като размахват магическа пръчица, за да заменят пристрастните човешки работници с ИИ, ги очаква много грубо събуждане. Вижте моята дискусия относно важността на овластяването на лидерите с предписанията на етиката на ИИ на адрес връзката тук.

На този етап от тази дискусия бих се обзаложил, че желаете някои примери от реалния свят, които биха могли да покажат главоблъсканицата на замяната (или не) на човешките неблагоприятни пристрастия с базирани на AI неблагоприятни пристрастия.

Радвам се, че попитахте.

Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на истински самоуправляващи се автомобили, базирани на AI, осветлява нещо относно неблагоприятните пристрастия в AI и ако е така, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, че AI управлява колата изцяло самостоятелно и няма никаква човешка помощ по време на шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5, за която все още не знаем дали това ще бъде възможно и колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и AI с неблагоприятни пристрастия

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да направим дълбоко гмуркане в самоуправляващите се автомобили и възможностите на етичния AI, което води до изследване на AI и неблагоприятни пристрастия.

Нека използваме лесно ясен пример. Самоуправляваща се кола, базирана на AI, се движи по кварталните улици и изглежда шофира безопасно. Отначало сте отделяли специално внимание на всеки път, когато сте успели да зърнете самоуправляващата се кола. Автономното превозно средство се открояваше със своя багажник от електронни сензори, включващи видеокамери, радарни устройства, LIDAR устройства и други подобни. След много седмици на самоуправляващата се кола, която пътува из общността ви, сега почти не го забелязвате. Що се отнася до вас, това е просто още една кола по вече натоварените обществени пътища.

За да не мислите, че е невъзможно или неправдоподобно да се запознаете с виждането на самоуправляващи се автомобили, често съм писал за това как местата, които са в обхвата на изпробването на самоуправляващи се автомобили, постепенно свикнаха да виждат усъвършенстваните превозни средства, вижте моя анализ на тази връзка тук. Много от местните жители в крайна сметка преминаха от зяпащи уста, възторжени погледи към сега излъчващи обширна прозявка на скука, за да станат свидетели на тези криволичещи самоуправляващи се коли.

Вероятно основната причина в момента, поради която могат да забележат автономните превозни средства, е поради фактора на дразнене и раздразнение. Стандартните системи за шофиране с изкуствен интелект гарантират, че автомобилите спазват всички ограничения на скоростта и правилата за движение. За забързаните човешки шофьори в традиционните им коли, управлявани от хора, понякога се дразните, когато сте заседнали зад строго спазващите закона самоуправляващи се автомобили, базирани на AI.

Това е нещо, с което всички ние може да трябва да свикнем, с право или погрешно.

Обратно към нашата приказка.

Оказва се, че започват да възникват две неприлични притеснения относно иначе безобидните и като цяло приветствани самоуправляващи се автомобили, базирани на AI, по-специално:

а. Когато изкуственият интелект обикаля самоуправляващите се автомобили, за да вземе превози, се превърна в тревожна загриженост в общността като цяло

b. Как AI третира чакащите пешеходци, които нямат предимство, също е нарастващ проблем

Първоначално AI обикаляше самоуправляващите се автомобили из целия град. Всеки, който е искал да се вози в самоуправляващата се кола, е имал по същество равен шанс да извика такава. Постепенно AI започна основно да държи самоуправляващите се автомобили да роумират само в една част на града. Този раздел беше по-голям производител на пари и системата AI беше програмирана да се опита да увеличи приходите като част от използването в общността.

Членовете на общността в бедните части на града е по-малко вероятно да могат да се возят от самоуправляваща се кола. Това се дължи на факта, че самоуправляващите се автомобили бяха по-далеч и роуминг в частта с по-високи приходи на локала. Когато постъпи заявка от далечна част на града, всяка заявка от по-близко място, която вероятно е в „уважаваната“ част на града, ще получи по-висок приоритет. В крайна сметка възможността за получаване на самоуправляваща се кола на всяко място, различно от по-богатата част на града, беше почти невъзможна, което е отчайващо за тези, които живееха в тези райони, които сега нямат ресурси.

Можете да твърдите, че AI до голяма степен се е приземил върху форма на прокси дискриминация (също често наричана непряка дискриминация). AI не е програмиран да избягва тези по-бедни квартали. Вместо това се „научи“ да прави това чрез използването на ML/DL.

Работата е там, че шофьорите, които споделят пътуването, са били известни с това, че правят същото, макар и не непременно само поради ъгъла на печелене на пари. Имаше някои от шофьорите, които споделяха пътуването, които имаха неприятни пристрастия да събират ездачи в определени части на града. Това беше донякъде известен феномен и градът беше въвел подход за наблюдение, за да хване човешки шофьори, които правят това. Човешките шофьори биха могли да изпаднат в неприятности при извършване на неприятни практики за подбор.

Предполагаше се, че AI никога няма да попадне в същия вид плаващ пясък. Не беше създаден специализиран мониторинг, който да следи къде отиват базираните на изкуствен интелект самоуправляващи се автомобили. Едва след като членовете на общността започнаха да се оплакват, градските лидери осъзнаха какво се случва. За повече информация относно тези видове проблеми в целия град, които автономните превозни средства и самоуправляващите се автомобили ще представят, вижте моето отразяване на тази връзка тук и който описва проведено от Харвард проучване, което съм съавтор по темата.

Този пример за аспектите на роуминг на базираните на AI самоуправляващи се автомобили илюстрира по-ранната индикация, че може да има ситуации, водещи до хора с неблагоприятни пристрастия, за които са въведени контроли и че AI, заменящ тези човешки шофьори, е оставен на косъм. Безплатно. За съжаление, AI може постепенно да потъне в подобни пристрастия и да го направи без достатъчно предпазни парапети.

Втори пример включва AI, който определя дали да спре за изчакващи пешеходци, които нямат право на преминаване на улицата.

Несъмнено сте шофирали и сте се натъкнали на пешеходци, които са чакали да пресекат улицата и въпреки това нямат право на път за това. Това означаваше, че имате право на преценка дали да спрете и да ги оставите да преминат. Можете да продължите, без да ги оставяте да пресичат и все пак да сте напълно в рамките на законните правила за шофиране за това.

Проучванията за това как човешките шофьори решават да спрат или не спират за такива пешеходци предполагат, че понякога шофьорите хора правят избора въз основа на неблагоприятни пристрастия. Шофьор човек може да погледне пешеходеца и да избере да не спре, въпреки че биха спрели, ако пешеходецът имаше различен външен вид, например въз основа на раса или пол. Разгледах това в връзката тук.

Представете си, че базираните на изкуствен интелект самоуправляващи се автомобили са програмирани да се справят с въпроса дали да спрат или не за пешеходци, които нямат право на път. Ето как разработчиците на AI решиха да програмират тази задача. Те събраха данни от градските видеокамери, които са поставени из целия град. Данните показват човешки шофьори, които спират за пешеходци, които нямат право на път, и шофьори, които не спират. Всичко е събрано в голям набор от данни.

Чрез използване на машинно обучение и дълбоко обучение данните се моделират изчислително. След това системата за шофиране с изкуствен интелект използва този модел, за да реши кога да спре или не. Като цяло идеята е, че от каквото и да се състои местният обичай, по този начин AI ще насочва самоуправляващата се кола.

За изненада на градските лидери и жителите, изкуственият интелект очевидно е избирал да спре или да не спре въз основа на външния вид на пешеходеца, включително тяхната раса и пол. Сензорите на самоуправляващата се кола ще сканират чакащия пешеходец, ще подадат тези данни в модела ML/DL и моделът ще издаде на AI дали да спре или да продължи. За съжаление градът вече имаше много пристрастия към човешките шофьори в това отношение и AI сега имитираше същото.

Добрата новина е, че това повдига проблем, за който почти никой не е знаел преди. Лошата новина беше, че тъй като AI беше хванат да прави това, той получи по-голямата част от вината. Този пример илюстрира, че една AI система може просто да дублира вече съществуващите неблагоприятни пристрастия на хората.

Заключение

Има множество начини да се опитате и да избегнете създаването на ИИ, който или извън портата има неблагоприятни отклонения, или който с течение на времето събира отклонения. Един подход включва да се гарантира, че разработчиците на AI са наясно с това, което се случва и по този начин ги държи нащрек да програмират AI да предотврати проблема. Друг път се състои в това AI да се самонаблюдава за неетично поведение (вижте моята дискусия на връзката тук) и/или наличието на друга част от AI, която следи други AI системи за потенциално неетично поведение (обхванах това на връзката тук).

За да обобщим, трябва да осъзнаем, че хората могат да имат неблагоприятни пристрастия и че по някакъв начин трябва да знаят своите ограничения. По същия начин AI може да има неблагоприятни отклонения и по някакъв начин трябва да знаем техните ограничения.

За тези от вас, които страстно приемат AI Ethics, бих искал да завърша точно сега с друга известна реплика, която всички вече трябва да знаят. А именно, моля, продължете да използвате и споделяте значението на етичния AI. И правейки това, аз нахално бих казал следното: „Давай, оправи деня ми.“

Източник: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/