Етиката на изкуствения интелект, обмисляща предимствата на законово задължителните фондове за изкупление, за да се гарантира отчетност за лошото поведение на изкуствения интелект

Кой е виновен?

Това може да изглежда като ясен въпрос, но в случая с известната комедия на легендарното дуо Абът и Костело за бейзболен отбор, „кой“ може да бъде объркващо. Може бегло да сте запознати с Кой е първи комедийна рутина, която превърнаха в един от най-трайните скечове на всички времена (предупреждение за спойлер за тези от вас, които не са го чували).

Абът казва на Костело, че Кой е на първо, Какво е на второ и Не знам е на трето. Хитрият трик е, че първият бейсмен се казва Кой, второто мазе се казва Какво, а третият бейзмен се казва Не знам. Разбира се, тези фрази също имат своето конвенционално значение и по този начин опитът да се тълкува какво казва Абът може да бъде напълно объркващ. Наистина, Костело задава на пръв поглед безобидния въпрос кой е първи, отговорът на който е категорично „да“. Но това няма смисъл за Костело, тъй като той очакваше име и вместо това получи объркващо „да“ като отговор.

Смяната на скоростите, когато става въпрос за появата на изкуствения интелект (AI), един от най-неприятните въпроси, които продължават да се задават, включва кой или може би какво ще бъде държан отговорен, когато AI се обърка.

По-рано съм обсъждал наказателната отговорност за случаите, когато ИИ води до или предприема престъпни действия, вижте моето отразяване на връзката тук. Съществува и въпросът за гражданската отговорност, като например кого или какво можете да съдите, когато AI ви е сгрешил, което е темата, която ще обсъждам тук. Всичко това има значителни съображения за етика на ИИ. За моето текущо и обширно отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на мислене относно етиката на ИИ и правенето на това неразделна част от разработването и внедряването на ИИ е от жизненоважно значение за създаването на подходящ ИИ, включително (може би изненадващо или иронично) оценката на начина, по който етиката на ИИ се възприема от фирмите.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Всъщност те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни предимства за обществото.

Води се разгорещен дебат дали съществуващите закони са в състояние да се справят адекватно с появата на AI системи в обществото. Правната отговорност обикновено изисква да можете да закопчаете опашката на магарето за това кой е отговорен за вредното поведение. В случая с ИИ може да има доста неясен път, който свързва конкретно лице или лица с ИИ, извършил някакво нараняващо действие. AI може да е до голяма степен непроследим до източника или изобретателя, който е съставил AI.

Друго съображение е, че дори ако корените на ИИ могат да бъдат проследени до някого, въпросът е дали лицето или хората може да не са били в състояние разумно да предвидят неблагоприятния резултат, който ИИ в крайна сметка е произвел. Същината на предвидимостта е обичайно забележителен фактор при оценката на правната отговорност.

Може да се изкушите да си помислите, че можете просто да отидете след самия AI и да посочите AI като законната страна, отговорна или отговорна за каквато и да е вреда, която се предполага, че е нанесена. Като цяло, преобладаващото правно мнение е, че ИИ все още не е достигнал ниво на юридическо лице. По този начин няма да можете строго погледнато да се стремите да накарате AI да плати и ще трябва да намерите хора, които са работили зад кулисите, така да се каже (за моя анализ на юридическото лице за AI, вж. връзката тук).

В цялото това потенциално правно тресавище стъпва идея, която се предлага като възможно средство за защита, или в краткосрочен план, или евентуално в дългосрочен план. Идеята е, че може би трябва да се създаде специален компенсаторен фонд, който да осигури финансово облекчение за тези, които са били ощетени от ИИ. Ако по друг начин не можете да накарате изкуствения интелект да ви компенсира и не можете да определите лицата, които предполагаемо трябва да бъдат държани отговорни, следващият най-добър вариант може да бъде да се включите в компенсаторен фонд, който има за цел да помогне на пострадалите от изкуствения интелект.

Такъв фонд би бил подобен на вид застраховка, както се казва в провокираща размисъл изследователска статия: „Това по същество би било застрахователен механизъм срещу несигурност: Ясна и прозрачна рамка за бързо обезщетение в случаите, когато има иск за отговорност несигурни или без изгледи за успех поради непредвидимото естество на увреждащото поведение, самия (тип) щета или прекомерните разходи и/или сложността на процедурата“ (статия на Оливия Ердели и Габор Ердели, „Пъзелът за отговорността за ИИ“ И решение, базирано на фондове“, Журнал за изследване на изкуствения интелект, 2021).

Компенсаторният фонд ще бъде част от всеобхватна Гаранционна схема за ИИ (AIGS) и ще бъде придружен от някои леки промени в съществуващите закони относно правната отговорност. Предполага се, че лекото докосване ще бъде по-лесно за прилагане и няма да изисква трудния вид правен и обществен гняв, ако в съществуващите правни режими се направи по-разтърсваща поредица от демонстративни промени. Според изследователите: „Това отразява нашето убеждение, че – въпреки привлекателността на такова бързо решение – неизменен прилагане на съществуващи правила за отговорност към AI или a протекционистки мотивирани прибягването до строга отговорност с оглед установяване на отговорност на всяка цена не са правилните отговори поради три причини: Първо, пренебрегвайки, че тези правила са пригодени за различни обстоятелства и следователно могат да бъдат неподходящи за ИИ, те противоречат на деликатно балансираните цели на система за правна отговорност. Второ, те възпрепятстват иновациите в ИИ, като възприемат неправомерно наказателен подход. Трето, неправомерното прибягване до строга отговорност просто заобикаля проблемите с предвидимостта и грешките по догматично непоследователен начин, вместо да ги коригира” (според цитирания по-горе документ).

Аргументите в полза на такива компенсаторни фондове за ИИ включват:

  • Намалява необходимостта от дълги и скъпи съдебни процеси за справяне с причинени от AI щети
  • Уверява хората, че могат да се възползват от AI и да бъдат компенсирани, ако бъдат наранени
  • Насърчава иновациите в ИИ чрез облекчаване на правната несигурност, пред която са изправени иноваторите в ИИ
  • Може да се използва много по-бързо, отколкото да се правят големи промени в съществуващите закони
  • Предлага сравнително ясно лекарство, което е надеждно и лесно достъпно
  • Други

Междувременно онези, които се противопоставят на подхода на компенсаторните фондове за ИИ, казват следното:

  • Нека производителите на изкуствен интелект да се откажат прекалено много и да им позволим да заобикалят отговорността
  • Ще насърчи създателите на изкуствен интелект да създават изкуствен интелект, който няма надеждна безопасност и подходящ контрол
  • Може да насърчи хората да фалшиво твърдят, че AI вреди, за да могат да се възползват от средствата
  • Заобикаля и подкопава истинската необходимост от преразглеждане на нашите закони, за да управлява ИИ в достатъчна степен
  • Може да се превърне в бюрократичен кошмар, който затъва и злоупотребява със средствата
  • Други

Както може да се види, има както привърженици, така и противници на тази напълно противоречива идея.

Ще ви бъде трудно да изключите накратко компенсаторния фонд за ИИ като потенциален подход към нарастващите опасения относно ИИ, който причинява вреда. Нито пък предложеното решение е забиване.

Една гледна точка е, че създателите на AI ще трябва да вложат пари във фондовете като част от усилията си, когато разработват и разпространяват AI. Това може да се тълкува като вид такса или данък, които те трябва да поемат като част от възможността да пуснат своя AI на света. Но дали тази добавена цена потенциално потиска усилията на стартиращи компании, които се опитват да прокарат границите на днешния AI? И как би се процедирало принудителното изпълнение, за да се гарантира, че производителите на изкуствен интелект плащат своите такси или данъци?

Възникват редица въпроси, които трябва да бъдат изковани:

  • В кои страни компенсаторният фонд за ИИ би бил най-подходящ?
  • Може ли да се създаде глобално подобие на взаимосвързани компенсаторни фондове за ИИ?
  • Какви биха били подробните и работещи механизми, свързани с такива средства?
  • Как ще се финансират компенсаторните фондове за ИИ (публични, частни, благотворителни)?
  • Това ще бъде ли база за застраховка без вина или ще бъде предприет някакъв друг подход?
  • Т.н.

Сфера, в която идеята за компенсаторни фондове за ИИ вече е обединена, се състои от автономни системи като автономни превозни средства и самоуправляващи се автомобили. За моето покритие на самоуправляващите се автомобили и автономните системи с изкуствен интелект вижте връзката тук.

Ето скица как това може да работи за базирани на AI самоуправляващи се автомобили.

Да предположим, че самоуправляваща се кола се блъсна в мотоциклетист. Велосипедистът е пострадал. Велосипедистът може да потърси правна защита, като преследва автомобилния производител на автономното превозно средство. Или може да се насочат към самоуправляващата се технологична фирма, която направи системата за шофиране с изкуствен интелект. Ако самоуправляващата се кола се експлоатира като автопарк, друг правен път би бил преследването на оператора на автопарка. Опитът да се съди AI не е опция на този етап, тъй като юридическото лице на AI все още не е установено.

Вместо да предприемате съдебни действия срещу която и да е от тези страни, друго средство за защита би било да подадете молба или иск към подходящ компенсаторен фонд за ИИ. Фондът ще има формализирани процеси, включващи преразглеждане на иска, и след това ще определи какви компенсаторни плащания могат да бъдат предоставени на ищеца. Възможно е да има процес на обжалване, който помага на ищците, които смятат, че са били отказани погрешно от фонда или са недостатъчно компенсирани от фонда.

На теория компенсаторният фонд за ИИ би бил много по-бърз път към получаване на компенсация за нанесената вреда. Можете да си представите колко трудоемък може да бъде един съдебен процес, при който съдените фирми може да се опитат да протакат делото.

Въпреки това адвокатите биха могли да подчертаят, че компенсаторният фонд за изкуствен интелект би могъл да позволи на тези други страни, като производителите на изкуствен интелект, привидно да избегнат всякакво ясно наказание за това, че са пуснали своя самоуправляваща се кола на обществени пътища, която в крайна сметка е ударила велосипедист. Какво друго биха могли тези фирми да изберат да направят „безгрижно“? Без надвисналия призрак на правния меч, висящ над главите им, бихме могли ежедневно да се сблъскваме с ИИ, който е пълен със застрашаващи способности.

Аргументите се въртят.

Заключение

AI Ethics ни напомня, че винаги трябва да обмисляме етичните и правни разклонения на AI. В този случай на компенсаторните фондове за ИИ, предложената идея за подобен на застраховка фонд от средства за компенсиране на онези, които са ощетени от ИИ, наистина изглежда привлекателна. Средствата изглежда чакат там, готови да бъдат използвани и да осигурят възможно най-скорошно обезщетение.

Компромисите за това дали това може да отвори шлюзовете към създаването на AI, който има все по-малко и по-малко контроли за безопасност, е обезсърчително и твърде реално безпокойство. Вероятно не е нужно да наливаме масло в огън, който може би вече е в ход.

Можем ли по някакъв начин все още да накараме създателите на AI да създадат подходящ етичен AI и едновременно с това да създадем тези компенсаторни фондове за AI?

Някои биха казали, че да, можем. Чрез пренастройване на съществуващите закони, за да се приведат в съответствие с компенсаторните фондове за ИИ, онези, които са ощетени от ИИ, потенциално биха имали двоен път да търсят своята справедлива компенсация.

Кой е първи?

Да, ето кои (както и всички нас) за първи път забелязват, че трябва да обмислим потенциалното използване на компенсаторни фондове за изкуствен интелект и да променим съществуващите закони, макар и леко, осигурявайки средства за справяне с атаката както на добрия ИИ, така и лош AI.

Няма объркване относно това жизненоважно съображение.

Източник: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- отчетност/