Етика на ИИ и Закон за ИИ, претеглящи ключовите начини за прилагане на този наскоро издаден Закон за правата на ИИ, включително и удивително чрез директно използване на ИИ

Няма съмнение, че имаме нужда от чертежи в ежедневието си.

Ако възнамерявате да построите тази мечтана къща от дълго време, би било разумно първо да съставите използваем план.

Чертежът показва по осезаем и документиран начин каквато и да е визионерска перспектива с широко отворени очи може да е заключена във вашето око. Тези, които ще бъдат призовани да построят вашето любимо имение, ще могат да се позоват на чертежа и да определят подробностите за това как да свършат работата. Чертежите са удобни. Липсата на план със сигурност ще бъде проблематична за справяне с всякакъв вид сложна работа или проект.

Нека прехвърлим тази донякъде сантиментална, но истинска почит към чертежите в сферата на изкуствения интелект (AI).

Тези от вас, които се интересуват по същество от ИИ, може да са смътно наясно, че важен политически ориентиран план беше наскоро пуснат в САЩ, който очевидно се отнася до бъдещето на AI. Неофициално известен като Законът за правата на AI, официалното заглавие на провъзгласената бяла книга е „Проект за Закон за правата на ИИ: да накараме автоматизираните системи да работят за американския народ“ и е лесно достъпна онлайн.

Документът е резултат от едногодишни усилия и внимателно проучване на Службата за научна и технологична политика (OSTP). OSTP е федерален орган, създаден в средата на 1970-те години на миналия век и служи за консултиране на американския президент и изпълнителния офис на САЩ по различни технологични, научни и инженерни аспекти от национално значение. В този смисъл можете да кажете, че този Закон за правата на ИИ е документ, одобрен от и подкрепен от съществуващия Белия дом на САЩ.

Законът за правата на ИИ изобразява човешки права които човечеството трябва да има по отношение на навлизането на AI в нашето ежедневие. Подчертавам този важен момент, защото някои хора първоначално бяха озадачени, че може би това е някакъв вид потвърждение на ИИ като юридическо лице и че това е литания от права за разумен ИИ и хуманоидни роботи. Не, още не сме там. Както ще видите след малко, ние не сме съвсем близо до разумния AI, въпреки заглавията на банерите, които изглежда ни казват обратното.

Добре, тогава имаме ли нужда от план, който излага правата на човека в ерата на ИИ?

Да, със сигурност го правим.

Почти трябва да сте заключени в пещера и да нямате достъп до интернет, за да не знаете, че AI вече и все повече посяга на нашите права. Неотдавнашната ера на AI първоначално се разглежда като AI за добро, което означава, че можем да използваме AI за подобряването на човечеството. По петите на AI за добро дойде осъзнаването, че ние също сме потопени в AI за лошо. Това включва ИИ, който е създаден или самопроменен, за да бъде дискриминационен и прави изчислителни избори, внушаващи ненужни пристрастия. Понякога изкуственият интелект е изграден по този начин, докато в други случаи се отклонява в тази неприятна територия.

За моето текущо и обширно отразяване и анализ на закона за ИИ, етиката на ИИ и други ключови технологични и обществени тенденции в областта на ИИ вж. връзката тук намлява връзката тук, Само за да назовем няколко.

Разопаковане на Закона за правата на ИИ

Преди това обсъждах Закона за правата на ИИ и ще направя кратко резюме тук.

Освен това, ако искате да знаете моите задълбочени плюсове и минуси на наскоро публикувания Закон за правата на изкуствения интелект, описах подробно анализа си в публикация на адвокатВиж връзката тук, Най- адвокат е забележителен онлайн сайт за правни новини и коментари, широко известен като наградена услуга за правни новини, захранвана от глобален екип от студенти по право репортери, редактори, коментатори, кореспонденти и разработчици на съдържание, и е със седалище в Университета на Питсбъргския факултет Закон в Питсбърг, където започна преди повече от 25 години. Поздравления за изключителния и трудолюбив екип на адвокат.

В Декларацията за правата на ИИ има пет основни категории:

  • Безопасни и ефективни системи
  • Алгоритмични защити срещу дискриминация
  • Защита на личните данни
  • Забележка и обяснение
  • Човешки алтернативи, внимание и резервен вариант

Забележете, че не ги номерирах от едно до пет, тъй като това може да означава, че са в определена последователност или че едно от правата изглежда по-важно от другото. Ще приемем, че всеки има свои собствени заслуги. Всички те са еднакво достойни в известен смисъл.

Като кратка индикация от какво се състои всеки от тях, ето извадка от официалната бяла книга:

  • Безопасни и ефективни системи: „Трябва да сте защитени от опасни или неефективни системи. Автоматизираните системи трябва да бъдат разработени с консултации от различни общности, заинтересовани страни и експерти в областта, за да се идентифицират опасенията, рисковете и потенциалните въздействия на системата.“
  • Алгоритмични защити от дискриминация: „Не трябва да се сблъсквате с дискриминация от алгоритми и системи трябва да се използват и проектират по справедлив начин. Алгоритмична дискриминация възниква, когато автоматизираните системи допринасят за неоправдано различно третиране или въздействия в неблагоприятно положение на хората въз основа на тяхната раса, цвят на кожата, етническа принадлежност, пол (включително бременност, раждане и свързани медицински състояния, полова идентичност, интерсексуален статус и сексуална ориентация), религия, възраст , национален произход, увреждане, статут на ветеран, генетична информация или всяка друга класификация, защитена от закона.“
  • Поверителност на данните: „Трябва да бъдете защитени от злоупотреби с данни чрез вградени защити и трябва да имате правомощия за това как се използват данните за вас. Трябва да бъдете защитени от нарушения на поверителността чрез избор на дизайн, който гарантира, че такива защити са включени по подразбиране, включително гарантиране, че събирането на данни отговаря на разумните очаквания и че се събират само данни, строго необходими за конкретния контекст.
  • Забележка и обяснение: „Трябва да знаете, че се използва автоматизирана система и да разберете как и защо тя допринася за резултати, които ви влияят. Проектантите, разработчиците и внедрителите на автоматизирани системи трябва да предоставят общодостъпна документация на обикновен език, включително ясни описания на цялостното функциониране на системата и ролята, която автоматизацията играе, забележка, че такива системи се използват, лицето или организацията, отговорни за системата, и обяснения на резултати, които са ясни, навременни и достъпни.“
  • Човешки алтернативи, внимание и резерв: „Трябва да можете да се откажете, когато е подходящо, и да имате достъп до лице, което може бързо да разгледа и отстрани проблемите, които срещате. Трябва да можете да се откажете от автоматизираните системи в полза на човешка алтернатива, когато е подходящо.“

Като цяло, това са аспекти на правата на човечеството, които се обсъждат от доста време в контекста на етиката на ИИ и Закона за ИИ, вижте моето отразяване като на връзката тук. Бялата книга изглежда не изважда магически заек от шапка по отношение на някакво новооткрито или разкрито право, което досега не е било изяснено в контекста на ерата на ИИ.

Това е добре.

Можете да твърдите, че компилирането им в една добре опакована и формализирана колекция предоставя жизненоважна услуга. Плюс това, като бъдете помазани като аплодиран Законът за правата на AI, това допълнително поставя целия въпрос открито и умело в съзнанието на обществената сфера. Той обединява съществуващо множество от различни дискусии в уникален набор, който сега може да бъде разгласен и предаден на всички заинтересовани страни.

Позволете ми да предложа този списък с благоприятни реакции към обявения Закон за правата на ИИ:

  • Осигурява основна компилация от ключови принципи
  • Служи като план или основа за надграждане
  • Действа като вокализиран призив за действие
  • Стимулира интереса и демонстрира, че това са сериозни съображения
  • Обединява множество различни дискусии
  • Разпалва и допринася за усилията за приемане на етичен AI
  • Несъмнено ще допринесе за създаването на закони за ИИ
  • Други

Трябва също така да вземем предвид по-малко благоприятните реакции, като вземем предвид, че има още много работа, която трябва да се свърши и че това е само началото на едно дълго пътуване по трудния път на управление на ИИ.

Като такива, донякъде сурови или да кажем конструктивни критики, отправени към Закона за правата на ИИ, включват:

  • Не е правно приложимо и е напълно необвързващо
  • Само консултантски и не се счита за държавна политика
  • По-малко изчерпателен в сравнение с други публикувани произведения
  • Основно се състои от широки концепции и липсват подробности за изпълнението
  • Ще бъде предизвикателство да се превърне в действително приложими практически закони
  • Привидно мълчи по задаващия се въпрос за евентуална забрана на ИИ в някои контексти
  • Малко признава предимствата на използването на AI, който е добре разработен
  • Други

Може би най-известният остър коментар се съсредоточава върху факта, че този Закон за правата на ИИ не е законно приложим и следователно не е без значение, когато става въпрос за установяване на ясни цели. Някои казват, че въпреки че бялата книга е полезна и окуражаваща, тя определено няма зъби. Те се питат какво може да се получи от един уж кух набор от изящни правила.

Ще се обърна към тези хапливи забележки след малко.

Междувременно бялата книга изобилно посочва ограниченията на това, което включва този Закон за правата на ИИ:

  • „Планът за законопроект за правата на ИИ е необвързващ и не представлява политика на правителството на САЩ. Той не заменя, променя или насочва тълкуване на който и да е съществуващ закон, регламент, политика или международен инструмент. То не представлява обвързващо ръководство за обществеността или федералните агенции и следователно не изисква спазване на принципите, описани тук. Освен това не е определящо каква ще бъде позицията на правителството на САЩ в международните преговори. Приемането на тези принципи може да не отговаря на изискванията на съществуващите закони, разпоредби, политики или международни инструменти, или на изискванията на федералните агенции, които ги прилагат. Тези принципи не са предназначени и не забраняват или ограничават каквато и да е законна дейност на държавна агенция, включително правоприлагане, национална сигурност или разузнавателни дейности“ (съгласно Бялата книга).

За тези, които побързаха да подкопаят Закона за правата на ИИ като правно необвързващ, нека направим малък мисловен експеримент върху това дразнещо твърдение. Да предположим, че бялата книга е пусната и има пълната сила на закона. Смея да твърдя, че резултатът би бил донякъде катаклизъм, поне до степента както на правните, така и на обществените отговори на прокламацията.

Законодателите щяха да се разгневят, че усилията не са предприели нормативните процеси и правните процедури за съставяне на такива закони. Бизнесът би се разгневил, с право, ако изникнат нови закони без достатъчно уведомяване и осведоменост какви са тези закони. Ще последва всякакъв вид ужас и възмущение.

Не е добър начин да гравитираме към укрепване на правата на човечеството в ерата на ИИ.

Спомнете си, че по-рано бях започнал тази дискусия, като изтъкнах стойността и жизнеността на чертежите.

Представете си, че някой е пропуснал стъпката на изработване на чертежи и е скочил незабавно в изграждането на вашата мечтана къща. Как мислите, че ще изглежда къщата? Изглежда справедлив залог, че къщата няма да съответства особено на това, което сте имали в ума си. Полученият чифлик може да бъде пълна бъркотия.

Същността е, че наистина се нуждаем от чертежи и сега имаме такъв, за да продължим напред в измислянето на разумни закони за ИИ и овластяването на етичното приемане на ИИ.

Ето защо бих искал да разгледам начините, по които този проект на Закона за правата на ИИ може да бъде превърнат в къща, така да се каже. Как ще използваме плана? Какви са подходящите следващи стъпки? Може ли този план да е достатъчен или има нужда от повече месо по костите?

Преди да преминем към тези тежки въпроси, бих искал първо да се уверя, че всички сме на една и съща страница относно природата на ИИ и от какво се състои днешното състояние.

Поставяне на рекорда за днешния AI

Бих искал да направя изключително категорично изявление.

Готови ли сте?

Днес няма ИИ, който да е разумен.

Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предскаже дали ще постигнем съзнателен ИИ, нито дали съзнателният ИИ ще възникне по някакъв чудотворен начин спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето отразяване на връзката тук).

Типът AI, върху който се фокусирам, се състои от несъзнателния AI, който имаме днес. Ако искахме да спекулираме безумно за разумния ИИ, тази дискусия може да тръгне в коренно различна посока. Смята се, че един разумен AI ще бъде от човешко качество. Трябва да имате предвид, че чувствителният AI е когнитивният еквивалент на човека. Нещо повече, тъй като някои спекулират, че може да имаме супер-интелигентен ИИ, е възможно такъв ИИ да се окаже по-умен от хората (за моето изследване на супер-интелигентен ИИ като възможност вж. покритието тук).

Горещо препоръчвам да държим нещата на земята и да вземем предвид днешния изчислителен несъзнателен ИИ.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс дори при сравнително обширни тестове да има отклонения, все още вградени в моделите за съпоставяне на шаблони на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, са обект на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Сега, след като положих полезна основа, ние сме готови да се потопим по-нататък в Закона за правата на ИИ.

Четири основни начина за прилагане на Закона за правата на ИИ

Някой ви дава план и ви казва да се захващате за работа.

Какво правиш?

В случая със Закона за правата на ИИ като план, помислете за тези четири основни стъпки, за да продължите напред:

  • Служи като принос към формулирането на закони за ИИ: Използвайте плана, за да помогнете при формулирането на закони за ИИ, като се надяваме, че правите това на съгласувана основа на федерално, щатско и местно ниво (може би подпомагайки и международните правни усилия за ИИ).
  • Помощ за по-широко възприемане на етиката на ИИ: Използвайте плана, за да насърчите формулировките на етиката на изкуствения интелект (понякога наричани „меки закони“ в сравнение с правно обвързващи „твърди закони“), като по този начин вдъхновявате и насочвате бизнеси, лица, правителствени организации и други групи към по-добри и по-последователни етични Резултати от ИИ.
  • Дейности за развитие на Shape AI: Използвайте плана, за да стимулирате създаването на методологии за разработване на ИИ и аспекти на обучението, като по този начин се опитате да накарате разработчиците на ИИ и тези, които прилагат или използват ИИ, да бъдат по-осведомени как да измислят ИИ в съответствие с желаните предписания на етиката на ИИ и в очакване на предстоящото приемане на закони за ИИ.
  • Мотивирайте появата на AI, за да помогнете за контролирането на AI: Използвайте плана, за да създадете AI, който ще се използва, за да се опита и да служи като проверка и баланс срещу друг AI, който може да се насочи към неблагоприятната територия. Това е една от онези макроскопични гледни точки, чрез които можем да използваме самото нещо, което намираме за привидно тревожно, за да ни помогне също (по ирония на съдбата, може да се каже) да ни защити.

Обсъдих всяка от гореспоменатите четири стъпки в моите публикации в колони.

За тази дискусия тук бих искал да се съсредоточа върху четвъртата изброена стъпка, а именно, че Законът за правата на ИИ може да послужи като мотиватор към появата на ИИ, за да помогне при контролирането на ИИ. Това е донякъде шокираща или изненадваща стъпка за мнозина, които все още не са навлезли напълно в това царство на ИИ.

Позволете ми да обясня подробно.

Една проста аналогия трябва да свърши работа. В наши дни всички сме свикнали с пробиви в киберсигурността и хакерски прониквания. Почти всеки ден чуваме за или сме засегнати от някоя последна вратичка в нашите компютри, която ще позволи на престъпни злодеи да заграбят нашите данни или да поставят подъл рансъмуер на нашите лаптопи.

Едно от средствата за борба срещу тези презрени опити се състои в използването на специализиран софтуер, който се опитва да предотврати тези прониквания. Почти сигурно имате антивирусен софтуерен пакет на вашия компютър у дома или на работа. Вероятно има нещо подобно на вашия смартфон, независимо дали осъзнавате, че е там или не.

Мисълта ми е, че понякога трябва да се борите с огъня с огън (вижте моето отразяване на това, като напр връзката тук намлява връзката тук).

В случай на AI, който се приземява в сферата на verboten AI за лошо, можем да търсим да използваме AI за добро който се бори с този злонамерен AI за лошо. Това, разбира се, не е чудодейно лекарство. Както знаете, има постоянна игра на котка и мишка между злосторниците, които се стремят да проникнат в нашите компютри, и напредъка, постигнат в защитата на киберсигурността. Това е почти безкрайна игра.

Можем да използваме AI, за да се опитаме да се справим с AI, който е тръгнал по забранен път. Това ще помогне. Това няма да е особено сребърен куршум, тъй като неблагоприятният AI, който е насочен, почти със сигурност ще бъде създаден, за да избегне всякакви подобни защити. Това ще бъде продължаваща битка на котка и мишка на AI срещу AI.

Във всеки случай AI, който използваме, за да се защитим, ще осигури известна защита срещу лош AI. По този начин несъмнено трябва да създадем AI, който да ни предпази или предпази. И ние също трябва да се стремим да създадем защитния ИИ, който да се коригира, когато лошият ИИ се приспособява. Ще има жестоко подобие на светкавична котка и мишка.

Не всеки харесва това разширяване на ролята на ИИ.

Тези, които вече възприемат AI като хомогенен аморфен конгломерат, биха настръхнали и сънували кошмари при този престорен гамбит AI срещу AI. Ако се опитаме да противопоставим огън срещу огън, може би просто предизвикваме още по-голям огън. AI ще се превърне в огромен огън, който вече не контролираме и ще избере да пороби човечеството или да ни изтрие от планетата. Когато става въпрос за обсъждане на AI като екзистенциален риск, обикновено сме накарани да вярваме, че всички AI ще се обединят, вижте дискусията ми по тези въпроси на връзката тук. Виждате ли, казват ни, че всяка част от AI ще грабне своите събратя AI и ще се превърне в едно голямо единно семейство на сюзерен.

Това е ужасният и определено обезпокоителен сценарий на разумния ИИ като безпроблемна мафия "всички за един" и "един за всички".

Въпреки че сте добре дошли да правите такива предположения относно това, че това може да се случи някой ден, уверявам ви, че засега ИИ, който имаме днес, се състои от камиони с несвързани различни програми за ИИ, които нямат конкретен начин да заговорничат една с друга.

Като казах това, сигурен съм, че онези, които горещо вярват в конспиративните теории за ИИ, ще настояват, че нарочно съм казал това, за да скрия истината. Аха! Може би ми се изплаща от днешния изкуствен интелект, който вече планира грандиозното превземане на изкуствения интелект (да, господине, ще се къпя в богатства, след като владетелите на изкуствения интелект управляват). Или, и със сигурност не предпочитам този друг ъгъл, може би сляпо не осъзнавам как AI тайно крои заговор зад гърба ни. Предполагам, че ще трябва да изчакаме и да видим дали съм част от AI преврата или AI abject pacy (ох, това боли).

Връщайки се към земните съображения, нека накратко проучим как съвременният AI може да се използва за подпомагане на прилагането на Закона за правата на AI. Удобно и накратко ще наричам това като Добър AI.

Ще използваме петте ключови камъка, въплътени в Закона за правата на ИИ:

  • Добър AI за популяризиране Безопасни и ефективни системи: Всеки път, когато сте обект на или използвате AI система, Добрият AI се опитва да разбере дали използваният AI е опасен или неефективен. При такова откриване добрият AI може да ви предупреди или да предприеме други действия, включително блокиране на лошия AI.
  • Добър AI за предоставяне Алгоритмични защити от дискриминация: Докато използвате AI система, която може да съдържа дискриминационни алгоритми, Добър AI се опитва да установи дали има неадекватни защити за вас и се стреми да определи дали наистина съществуват неоправдани пристрастия в използвания AI. Добрият AI може да ви информира и потенциално автоматично да докладва за другия AI на различни органи, както може да е предвидено от законите за AI и правните изисквания.
  • Добър AI за запазване Защита на данните: Този тип добър AI се опитва да ви защити от нахлувания в поверителността на данните. Когато друг AI иска да поиска данни, които може би не са наистина необходими от вас, Добрият AI ще ви накара да разберете за превишаващото действие. Добрият AI може също така потенциално да маскира вашите данни по начин, който при подаване на другия AI все още ще запази правата ви за поверителност на данните. и т.н.
  • Добър AI за установяване Забележка и обяснение: Вероятно е всички да се сблъскаме със системи с изкуствен интелект, на които крайно липсват правилни и подходящи известия и които за съжаление не успяват да покажат адекватно обяснение за своите действия. Добрият AI може да се опита да интерпретира или разпита другия AI, като по този начин потенциално идентифицира известия и обяснения, които е трябвало да бъдат предоставени. Дори ако това не е възможно да се направи в даден случай, Добрият AI поне ще ви предупреди за пропуските на другия AI и евентуално ще докладва за AI на определени органи въз основа на определени закони за AI и правни изисквания.
  • Добър AI за предлагане Човешки алтернативи, внимание и резервен вариант: Да предположим, че използвате AI система и изглежда, че AI не се справя с поставената задача. Може да не осъзнавате, че нещата се влошават или може да сте малко предпазливи и да не сте сигурни какво да правите със ситуацията. В такъв случай Good AI ще проучва мълчаливо какво прави другият AI и може да ви предупреди за жизненоважни опасения относно този AI. След това ще бъдете подканени да поискате човешка алтернатива на AI (или Добрият AI може да направи това от ваше име).

За да разберем по-нататък как този вид Добър AI могат да бъдат разработени и използвани, вижте моята популярна и високо оценена книга за ИИ (за честта е да кажа, че е отбелязана като „Десетте най-добри“) за това, което обикновено наричам ангели пазители на ИИ, вж. връзката тук.

Заключение

Знам какво си мислиш. Ако имаме Добър ИИ, който е създаден да ни защитава, да предположим, че Добрият ИИ се повреди и стане Лош ИИ. Известната или скандална латинска фраза изглежда напълно подходяща за тази възможност: Quis custodiet ipsos custodes?

Фразата се приписва на римския поет Ювенал и може да се намери в произведението му, озаглавено Сатири, и може да се преведе свободно като означаващ кой ще пази или гледа самите пазачи. Много филми и телевизионни предавания като Star Trek са използвали тази линия многократно.

Това със сигурност е така, защото това е отлична точка.

Разбира се, всички закони за изкуствен интелект, които бъдат приети, ще трябва да обхващат както лошия изкуствен интелект, така и дори добрия изкуствен интелект, който се развали. Ето защо ще бъде от решаващо значение да се напишат разумни и изчерпателни закони за ИИ. Законодателите, които просто се опитват да хвърлят произволни закони в стената и се надяват, че се придържат към законите за изкуствения интелект, ще се окажат дълбоко пропуснали целта.

Нямаме нужда от това.

Нямаме нито време, нито можем да поемем обществените разходи, за да се справим с неадекватно разработените закони за ИИ. Посочих, че за съжаление понякога ставаме свидетели на нови закони, свързани с ИИ, които са лошо съставени и пълни с всякакви правни недъзи, вижте например моя пробен анализ на закона за одита на AI Biases в Ню Йорк (NYC) на връзката тук.

Нека се уверим, че използваме по подходящ начин плана за Закона за правата на ИИ, който сега имаме в ръка по отношение на ИИ. Ако пренебрегнем плана, сме загубили, че сме засилили играта си. Ако погрешно приложим плана, срам за нас, че сме узурпирали полезна основа.

Уважаемият римски поет Ювенал каза още нещо, което можем да използваме при това обстоятелство: Anima sana in corpore sano.

Като цяло това се изразява в твърдението, че би било разумно да имате както здрав или здрав ум, така и здраво или здраво тяло. Това ни позволява да издържим всякакъв вид труд, според Ювенал, и със сигурност ще бъде единственият път към живот в мир или добродетел.

Време е да използваме здрав ум и здраво тяло, за да гарантираме, че човешките ни права на човечеството ще бъдат запазени и солидно укрепени в нововъзникващия свят на вездесъщия и понякога неблагоприятен AI. Това е разумен съвет от римляните, към който трябва да се придържаме в днешната бързина на фона на епохата на AI и едно бъдеще, решително изпълнено както с добър, така и с лош AI.

Източник: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- билл-оф-права-включително-и-удивително-чрез-използване-ai-направо/