Етиката на AI е скептична относно установяването на така наречените закони за AI с червен флаг за извикване на пристрастни алгоритми в автономните AI системи

Нека поговорим за законите за Червеното знаме.

Несъмнено знаете, че напоследък идеята за законите за червения флаг е широко отразена в новините. Има много заглавия, покриващи темата. Страстите и страстните дебати по такива въпроси са на върха на ума като обществена грижа и включват съвременните и бързо възникващи закони за оръжията с червен флаг.

Смея да кажа обаче, че може да не сте запознати с други закони за Червен флаг, приети в края на 1800-те, отнасящи се до моторните превозни средства и предшествениците на днешните ежедневни съвременни автомобили. Да, точно така, законите за червения флаг се връщат назад в историята, макар че обхващат други теми в сравнение с днешния съвременен фокус. Те обикновено се наричат ​​​​закони за движение с червен флаг.

Тези вече вековни и напълно несъществуващи закони изискват всяка моторизирана карета или двигател, задвижван от пара, по това време да има възрастен пред превозното средство и да носи червен флаг за предупредителни цели. Идеята беше, че добитъкът може да се разтревожи от тези шумни и злобни приспособления, които се движат бавно и неравномерно по черните или слабо павирани пътища, така че някой да върви пред устройството, докато енергично развява червен флаг, може да се надяваме, че може да избегне възникването на бедствия. В случай, че се чудите, железопътните линии и влаковете се считаха за изключени от същите закони, тъй като бяха превозни средства, неразделно свързани с релсите и имаха други закони, обхващащи техните действия.

Представете си, че днес трябва да развявате червени знамена като изискване за всяка кола по нашите обществени пътища.

Например, обикновен шофьор, слизащ по кварталната ви улица, ще трябва да се увери, че възрастен, развяващ червен флаг, присъства и дефилира пред движещата се кола. Това трябва да се случи за всяко превозно средство, минаващо по вашата улица. Може би хората щяха да станат работещи с червен флаг, които наемат шофьори на минаващи автомобили, които иначе нямат приятел или роднина, който да върви пред тях и да извършва предвиденото размахване.

В днешно време сме склонни да свързваме развеенето на червен флаг, свързано с магистралите, със строителните площадки на пътищата. Когато се приближите до разкопан път, работниците ще държат нагоре червен флаг, за да привлекат вниманието ви. Това ви казва да намалите темпото и да сте нащрек. Може да има булдозер, който ще се натъкне на пътя ви. Отпред може да има гигантска дупка и ще трябва да я обикаляте внимателно.

Но нека се върнем към използването на червени знамена от 1800 г.

Вярвате или не, размахването на червения флаг трябваше да бъде поне една осма от миля напред от предстоящата моторизирана машина. Това изглежда като доста голямо разстояние. Човек обаче предполага, че това е имало изобилен смисъл в онези дни. Стряскащите шумове на двигателя и може би самото виждане на превозното средство може да са достатъчни, за да изнервят животните. Някои от законите за Червеното знаме от онази епоха изискват също така през нощта да се държи светеща червена светлина, така че визуално видимо червено предпазно предупреждение да може да се види от затъмнено разстояние.

Като цяло смятам, че е справедливо да се твърди, че ние като общество сме склонни да свързваме червен флаг като вид сигнал или знак, че нещо потенциално не е наред или поне се нуждае от нашето благочестиво внимание.

Пригответе се за малко обрат на този феномен на червен флаг.

Има разпространено твърдение, че трябва да изискваме разпоредби за червен флаг, когато става въпрос за изкуствен интелект (AI).

Това е малко стряскащо и изненадваща концепция, която почесва много глави. Може да сте озадачени как или защо трябва да има т.нар Червен флаг Закони за изкуствен интелект. Моля, имайте предвид, че обозначавам това като AI закони с червен флаг, за да разгранича въпроса от законите за движение с червен флаг (като тези от края на 1800-те) и също да ги разгранича от другите по-разпространени днес закони за оръжията с червен флаг.

Наистина ли имаме нужда от закони за AI с червен флаг, които са ясно и единствено ориентирани към въпросите на AI?

Тези, които подкрепят предложения подход, биха настоявали, че ние абсолютно се нуждаем от законови разпоредби, които биха помогнали за ограничаване на ИИ, който съдържа неправомерни пристрастия и действа по дискриминационни начини. В момента изграждането и внедряването на AI са подобни на обстоятелствата на Дивия Запад. Усилията за овладяване на лошия ИИ в момента зависят от формулирането и приемането на насоките за етика на ИИ. За моето текущо и обширно отразяване на AI Ethics и Ethical AI, вж връзката тук намлява връзката тук, Само за да назовем няколко.

Законите, които съдържат лош AI, бавно се разработват и прилагат, вижте моето отразяване в връзката тук. Някои се притесняват, че законодателите не действат достатъчно бързо. Изглежда, че в момента са широко отворени вратите на наводнението за позволяване на пристрастен AI да бъде насърчаван в света. Извиването на ръце казва, че докато новите закони влязат в книгите, злият джин вече ще излезе от бутилката.

Не толкова бързо, контрааргументите си отиват. Притесненията са, че ако законите бъдат въведени твърде бързо, ние ще убием златната гъска, така да се каже, при което усилията на ИИ ще пресъхнат и няма да получим социалните ползи от новите AI системи. Разработчиците на AI и фирмите, желаещи да използват AI, може да се уплашат, ако византийски набор от нови закони, регулиращи AI, внезапно бъдат въведени на федерално, щатско и местно ниво, да не говорим за международните закони, свързани с AI, които също напредват.

В тази объркана афера идва призивът за AI закони с червен флаг.

Преди да се заемем с още малко месо и картофи за съображенията за дивата и вълнистата природа, лежащи в основата на предвидения Закон за AI за червен флаг, нека установим някои допълнителни основи по изключително важни теми. Трябва за кратко да се потопим в етиката на изкуствения интелект и особено в навлизането на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка работят и извършват поддръжка на AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират ИИ, са обект на придържане към понятията за етиката на ИИ. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека се върнем към нашия фокус върху законите за изкуствен интелект с червени флагове.

Основната концепция е, че хората биха могли да повдигнат червен флаг, когато вярват, че AI система работи по неоправдано предубеден или дискриминационен начин. Вие няма да повдигате физически флаг сам по себе си, а вместо това просто ще използвате някои електронни средства, за да изразите опасенията си известни. Частта с червен флаг на схемата или подхода е по-скоро метафора, отколкото физическо въплъщение.

Преструвайте се, че кандидатствате за жилищен заем. Избирате да използвате услуга за онлайн банкиране, за да кандидатствате за заем. След като въведете някои лични данни, изчаквате за момент AI системата, която се използва, за да реши дали сте достоен за заем или не. AI ви казва, че сте получили отказ за заема. След като поискате обяснение защо сте били отхвърлени, текстовият разказ изглежда ви подсказва, че ИИ е използвал ненужни предубедени фактори като част от алгоритъма за вземане на решения.

Време е да вдигнем червен флаг за AI.

Къде точно ще се развее това червено знаме?

Това е въпрос за милиони долари.

Една гледна точка е, че трябва да създадем национална база данни, която ще позволи на хората да маркират своите свързани с ИИ червени знамена. Някои казват, че това трябва да бъде регулирано от федералното правителство. Федералните агенции щяха да отговарят за проверката на червените знамена и идването на помощ на широката общественост относно достоверността и справянето с вероятно „лошия AI“, който подклаждаше отчетите за червения флаг.

Изглежда, че Конгресът ще създаде национален закон за AI за червен флаг. Законът ще разясни какво е червен флаг, свързан с ИИ. Законът би описал как се повдигат тези мрачни червени знамена от ИИ. И така нататък. Възможно е също така отделните държави да изберат да изработят свои собствени закони за изкуствен интелект за червен флаг. Може би те правят това вместо национална инициатива или го правят, за да разширят подробности, които са особено привлекателни за тяхната конкретна държава.

Критиците на федерална или която и да е подкрепяна от правителството програма за изкуствен интелект Red Flag ще твърдят, че това е нещо, което частната индустрия може да направи и нямаме нужда от Big Brother да излиза на преден план. Индустрията може да създаде онлайн хранилище, в което хората да могат да регистрират червени знамена за AI системи. Едно самоконтролиращо действие от страна на индустрията ще се справи в достатъчна степен с тези проблеми.

Притеснението относно предполагаемия индустриален подход е, че изглежда мирише на кръмничество. Бихте ли желали фирмите да се придържат към частно управлявана база данни с изкуствен интелект на Червен флаг? Много фирми потенциално биха пренебрегнали отбелязаните червени знамена за техния AI. Няма да има остри зъби към това да накарате компаниите да се справят с въведените червени знамена.

Хей, привържениците на подхода на частния сектор не звучат, това би било подобно на национална услуга, подобна на Yelp. Потребителите могат да разгледат червените флагове и сами да решат дали искат да правят бизнес с компании, които са натрупали множество червени знамена, ориентирани към ИИ. Банка, която получава много сигнали за своя AI, ще трябва да обърне внимание и да преработи своите системи за изкуствен интелект, така че логиката е, в противен случай потребителите биха избягвали фирмата като чумата.

Независимо дали целият този подход се предприема от правителството или от индустрията, е само върхът на айсберга по трънливите въпроси, пред които е изправен предложения постулат на Закона за AI за Червен флаг.

Поставете се на мястото на фирма, която е разработила или използва AI. Възможно е потребителите да повдигнат червени знамена, въпреки че нямаше жизнеспособна основа за това. Ако хората могат свободно да публикуват червен флаг за AI, те биха могли да бъдат изкушени да го направят по прищявка или може би за отмъщение срещу фирма, която иначе не е направила нищо лошо спрямо потребителя.

Накратко, може да има много фалшиво положителни червени знамена за ИИ.

Друго съображение е огромният размер или големината на получените червени знамена. Лесно може да има милиони и милиони червени знамена. Кой ще следи всички тези червени знамена? Каква би била цената за това? Кой ще плати за последващите усилия на червеното знаме? И т.н.

Ако трябва да кажете, че всеки, който се регистрира или докладва за червен флаг за AI, трябва да плати такса, вие сте влезли в мътно и коварно царство. Притеснението би било, че само богатите ще могат да си позволят да издигат червени знамена. Това от своя страна означава, че бедните няма да могат да участват еднакво в дейностите с червен флаг и по същество нямат място за предупреждение за неблагоприятни ИИ.

Само още един допълнителен обрат за сега, а именно, че този вид червен флаг закони или насоки относно AI изглежда са след факта, а не служат като предупреждение предварително.

Връщайки се към Законите за движение с червен флаг, акцентът върху използването на червен флаг беше да се предотврати бедствие като начало. Размахването на червения флаг трябваше да бъде много по-напред от предстоящата кола. Като са пред превозното средство, добитъкът ще бъде предупреден и тези, които охраняват добитъка, ще знаят, че трябва да вземат предпазни мерки поради скорошния пристигащ източник на безпокойство.

Ако хората са в състояние само да вдигнат червен флаг за AI, който привидно вече е накърнил или подкопава правата им, пословичният кон вече е излязъл от плевнята. Всичко, което изглежда ще постигне това, е, че се надяваме, че други хора, които идват сега, ще знаят да внимават с тази AI система. Междувременно лицето, за което се твърди, че е нанесено неправомерно, вече е пострадало.

Някои предполагат, че може би бихме могли да позволим на хората да повдигат червени знамена за ИИ заподозрян може да са предубедени, дори ако не са използвали AI и не са били пряко повлияни от AI. По този начин червеният флаг се размахва, преди щетите да бъдат нанесени.

Уви, отговарям на репликата, вие наистина ще превърнете червените флагове за справяне с ИИ в напълно неуправляема и хаотична афера. Ако някой по някаква причина може да повдигне червен флаг за AI система, въпреки че не е направил нищо с този AI, ще бъдете залети с червени знамена. Още по-лошо е, че няма да можете да различите житото от плявата. Целият подход с червен флаг ще се срине под собствената си тежест, премахвайки доброто на идеята, като позволи на flotsam и riffraff да потопят целия кораб.

Замайващо и объркващо.

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Появата на базирани на изкуствен интелект истински самоуправляващи се автомобили осветлява ли нещо относно законите за изкуствен интелект с червен флаг и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и закони за изкуствен интелект с червен флаг

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

Нека скицираме сценарий, който може да използва закон за изкуствен интелект за червен флаг.

Качвате се в базирана на изкуствен интелект самоуправляваща се кола и желаете автономното превозно средство да ви закара до местния магазин за хранителни стоки. По време на сравнително краткото пътуване, AI поема маршрут, който ви се струва донякъде грешен. Вместо да върви по най-прекия път, AI навигира до отдалечени улици, което кара времето за шофиране да бъде по-дълго, отколкото би могло да бъде нормално.

Какво става?

Ако приемем, че плащате за използването на самоуправляващата се кола, може да сте подозрителни, че AI е програмиран да управлява по-дълъг маршрут, за да се опита да увеличи тарифата или цената на пътуването. Всеки, който някога се е качвал на конвенционална кабина, задвижвана от човек, знае за измамата, която може да се случи, за да получи повече тесто на метъра. Разбира се, с хората, които имат GPS на смартфоните си, докато се возят в такси или еквивалент, можете лесно да хванете шофьор, който изглежда подло поема ненужно дълги маршрути.

Оказва се, че имате друга грижа за избора на маршрут, нещо, което наистина ви дразни.

Да предположим, че маршрутът е направен, за да се избегнат определени части на града поради расови аспекти. Има документирани случаи на човешки шофьори, които са били хванати да правят този вид избор, вижте дискусията ми на връзката тук. Може би ИИ е програмиран неблагоприятно за това.

Решаваш да вдигнеш червен флаг.

Нека приемем за дискусия, че е приет Закон за изкуствен интелект с червен флаг, който обхваща вашата юрисдикция. Това може да бъде местно право, щатско право, федерално или международно право. За анализ, който направих в съавторство с Инициативата за политика на автономните превозни средства (AVPI) на Харвард относно нарастващото значение на местното лидерство, когато общностите приемат използването на самоуправляващи се автомобили, вж. връзката тук.

И така, отивате онлайн към база данни с изкуствен интелект на Red Flag. В базата данни за инциденти въвеждате информацията за пътуването на самоуправляваща се кола. Това включва датата и часа на шофирането, заедно с марката и модела на самоуправляващата се кола. След това влизате в навигационния маршрут, който изглежда подозрителен, и вие предполагате или може би направо твърдите, че AI е създаден с предубедени или дискриминационни намерения и възможности.

Ще трябва да спекулираме с други подробности от Закона за изкуствен интелект за червения флаг за това какво се случва по-нататък в този конкретен сценарий. На теория би имало разпоредба някой да прегледа червеното знаме. Предполага се, че ще се стремят да накарат производителя на автомобили или технологична фирма за самостоятелно шофиране да обяснят своята гледна точка относно регистрирания червен флаг. Колко други такива червени знамена са регистрирани? Какви резултати доведоха тези червени знамена?

И така нататък щеше да продължи.

Заключение

Нелепо, увещават някои скептици.

Нямаме нужда от закони за изкуствен интелект с червен флаг, те се прилагат строго. Правенето на нещо от този род ще слепи работата, когато става въпрос за темпото и напредъка на AI. Всички подобни закони биха били тромави. Ще създадете проблем, който не решава проблем. Има и други лоши начини за справяне с ИИ. Не хващайте сляпо за сламки, за да се справите с предубедения ИИ.

Превключвайки предавките, всички знаем, че бикоборците използват червени пелерини, за да привлекат очевидно вниманието на ядосания бик. Въпреки че червеният е цветът, който най-много свързваме с тази практика, може да се изненадате да разберете, че учените казват, че биковете не възприемат червения цвят на мулетата (те са далтонисти за червено). Популярното шоу Ловци на митове направи доста забавно изследване на този въпрос. Движението на пелерина е ключов елемент, а не избраният цвят.

За тези, които отхвърлят необходимостта от закони за AI с червен флаг, насрещното твърдение е, че се нуждаем от нещо от драматичен и безпогрешен характер, за да сме сигурни, че разработчиците на AI и фирмите, внедряващи AI, ще се пазят от предубедения или лош AI. Ако не за червен флаг, може би развяващият се наметало или по същество всякакъв вид алармен подход може да бъде в сферата на надлежното внимание.

Знаем със сигурност, че лош AI съществува и че много повече лош AI ще се насочи в нашата посока. Намирането на начини да се предпазим от неблагоприятния AI е от решаващо значение. По същия начин, поставянето на мантинели, за да се опитате да спрете лошия AI да навлезе в света, е също толкова важно.

Ърнест Хемингуей е казал, че никой никога не живее живота си догоре, освен тореадорите. Трябва да се уверим, че хората могат да живеят живота си през целия си път, въпреки каквато и злоба или лудост да ни се обнародва.

Източник: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- предубедени-алгоритми-в-автономни-ai-системи/