Отговорният AI се наслаждава на изключителен тласък чрез прокламация за етика на AI от най-доброто професионално общество ACM

Видяхте ли или чухте новините?

Друг набор от предписания на етиката на изкуствения интелект беше наскоро провъзгласен.

Бурни аплодисменти, ако обичате.

От друга страна, може би не са го забелязали поради факта, че толкова много други укази за етиката на ИИ се носят от известно време. Някои казват, че привидно непрекъснатото просмукване на етични AI прокламации става малко сковаващо. Колко ни трябват? Може ли някой да се справи с всички тях? Кое е най-доброто? Може би прекаляваме с принципите на етиката на ИИ? И така нататък.

Е, в този конкретен случай казвам, че трябва особено да приветстваме това най-ново попълнение в клуба.

Ще обясня проницателно защо след малко.

Първо, като пояснение, имам предвид набора от правила за етика на изкуствения интелект, сега известен официално като „Изявление относно принципите за отговорни алгоритмични системи” който наскоро беше публикуван от Съвета за технологична политика на ACM на 26 октомври 2022 г. Поздравления отиват на екипите от експерти, които съставиха този ценен документ, включително съ-водещите автори Jeanna Matthews (Clarkson University) и Ricardo Baeza-Yates (Universitat Pompeu Fabra ).

Тези от вас, които са запознати, може би при внимателно разглеждане ще разберат, че този документ изглежда малко познат.

Добро око!

Това последно въплъщение е по същество актуализиран и разширен вариант на по-ранната съвместна „Декларация за алгоритмична прозрачност и отчетност“, която беше обнародвана от Комитета за технологична политика на ACM на САЩ и Комитета за технологична политика на ACM Европа през 2017 г. Верните читатели на моите колони може да си спомнят, че От време на време споменавам указа от 2017 г. в моята колона, отразяваща ключови аспекти, лежащи в основата на етиката на ИИ и Закона за ИИ.

За моята обширна и текуща оценка и анализи на тенденциите на етиката на ИИ и Закона за ИИ вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Това последно изявление на ACM е особено важно поради няколко жизненоважни причини.

Ето защо.

ACM, което е удобен акроним за Асоциация за компютърни машини, се смята за най-голямата световна асоциация, фокусирана върху компютрите. Състои се от около 110,000 1947 или повече членове, ACM е дългогодишен пионер в областта на компютрите. ACM произвежда едни от най-добрите научни изследвания в областта на компютрите и по същия начин осигурява професионални мрежи и привлича и практикуващите компютърни специалисти. Като такъв, ACM е важен глас, представляващ най-общо тези, които са високотехнологични и се е стремил трайно да напредне в областта на компютъра (ACM е основан през XNUMX г.).

Мога да добавя и малко лична бележка към това. Когато за първи път започнах да се занимавам с компютри в гимназията, се присъединих към ACM и участвах в техните образователни програми, особено във вълнуващия шанс да се състезавам в тяхното годишно състезание по компютърно програмиране (такива състезания са широко разпространени в днешно време и обикновено се наричат маратони по програмиране). Продължавам да участвам в ACM, докато бях в колежа чрез моя местен университетски клон и получих възможност да науча повече за лидерството, като станах служител на студентски клон. При навлизането в индустрията се присъединих към професионална глава и отново поех лидерска роля. По-късно след това, когато станах професор, служих в комисии и редакционни бордове на ACM, заедно със спонсорирането на студентската глава в кампуса. Дори и днес съм активен в ACM, включително в Комитета за технологична политика на ACM в САЩ.

Наслаждавам се на привлекателната и трайна визия на ACM за учене през целия живот и кариерно развитие.

Във всеки случай, от гледна точка на най-новата декларация за етика на изкуствения интелект, фактът, че това е издадено от ACM, има голяма тежест. Може разумно да твърдите, че предписанията на Етичния AI са съвкупност или колективен глас на световна група от компютърни професионалисти. Това казва нещо точно там.

Съществува и аспектът, че другите в областта на компютъра ще бъдат вдъхновени да се ободрят и да се вслушат в смисъл да обърнат дължимото внимание на това, което изявлението декларира от техните колеги компютърни колеги. По този начин, дори за тези, които не са в ACM или не знаят нищо за почитаната група, надяваме се, че ще има голям интерес да открият за какво става дума в изявлението.

Междувременно тези, които са извън на изчислителната област може да бъде привлечен от изявлението като един вид задкулисен вътрешен поглед към това, което хората, занимаващи се с компютри, казват за етичния AI. Искам обаче да подчертая, че изявлението е предназначено за всички, а не само за тези в компютърната общност, и следователно имайте предвид, че правилата на етиката на изкуствения интелект са навсякъде, така да се каже.

И накрая, има добавен обрат, който малцина биха взели предвид.

Понякога аутсайдерите възприемат компютърните асоциации като затънали до колене в технологиите и не особено запознати с общественото въздействие на компютрите и ИИ. Може да се изкушите да предположите, че такива професионални организации се интересуват само от най-новите и най-горещи пробиви в хардуера или софтуера. Те се възприемат от обществото, по просто казано груб начин, като технически маниаци.

За да оправя истината, бях потопен в социалните въздействия на компютрите, откакто за първи път започнах да се занимавам с компютри и по същия начин ACM също беше дълбоко ангажиран с подобни теми.

За всеки, изненадан, че това изявление относно правилата на етиката на изкуствения интелект е съставено и публикувано от ACM, те не обръщат внимание на дългогодишните изследвания и работа, извършвани по тези въпроси. Също така бих призовал заинтересованите да разгледат добре ACM Етичен код, рязък професионален етичен кодекс, който се развива през годините и подчертава, че разработчиците на системи трябва да са наясно, да го спазват и да бъдат бдителни относно етичните последици от своите начинания и стоки.

Изкуственият интелект разпалва огъня, когато се информира за компютърната етика.

Видимостта на етичните и правни съображения в областта на компютрите се повиши неимоверно с появата на днешния AI. Тези в рамките на професията са информирани и на моменти барабанени за обръщане на нужното внимание на етиката на ИИ и на въпросите, свързани със Закона за ИИ. Законодателите все повече осъзнават етиката на ИИ и аспектите на Законите за ИИ. Компаниите разбират, че изкуственият интелект, който разработват или използват, е едновременно полезен и същевременно понякога крие огромни рискове и потенциални недостатъци.

Нека да разопаковаме какво се случва през последните няколко години, така че да може да се установи подходящ контекст, преди да преминем към този последен набор от правила за етика на ИИ.

Нарастващата осведоменост за етичния AI

Неотдавнашната ера на AI първоначално се разглежда като AI за добро, което означава, че можем да използваме AI за подобряването на човечеството. По петите на AI за добро дойде осъзнаването, че ние също сме потопени в AI за лошо. Това включва ИИ, който е създаден или самопроменен, за да бъде дискриминационен и прави изчислителни избори, внушаващи ненужни пристрастия. Понякога изкуственият интелект е изграден по този начин, докато в други случаи се отклонява в тази неприятна територия.

Искам да съм напълно сигурен, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от несъзнателния AI, който имаме днес. Ако искахме да спекулираме безумно за разумния ИИ, тази дискусия може да тръгне в коренно различна посока. Смята се, че един разумен AI ще бъде от човешко качество. Трябва да имате предвид, че чувствителният AI е когнитивният еквивалент на човека. Нещо повече, тъй като някои спекулират, че може да имаме супер-интелигентен ИИ, е възможно такъв ИИ да се окаже по-умен от хората (за моето изследване на супер-интелигентен ИИ като възможност вж. покритието тук).

Горещо препоръчвам да държим нещата на земята и да вземем предвид днешния изчислителен несъзнателен ИИ.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс дори при сравнително обширни тестове да има отклонения, все още вградени в моделите за съпоставяне на шаблони на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, подлежат на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Аз също наскоро прегледах Законът за правата на AI което е официалното заглавие на официалния документ на правителството на САЩ, озаглавен „Проект за Закон за правата на ИИ: да накараме автоматизираните системи да работят за американския народ“, който е резултат от едногодишни усилия на Службата за политика в областта на науката и технологиите (OSTP ). OSTP е федерален орган, който служи за консултиране на американския президент и изпълнителния офис на САЩ по различни технологични, научни и инженерни аспекти от национално значение. В този смисъл можете да кажете, че този Закон за правата на ИИ е документ, одобрен от и подкрепен от съществуващия Белия дом на САЩ.

В Декларацията за правата на ИИ има пет основни категории:

  • Безопасни и ефективни системи
  • Алгоритмични защити срещу дискриминация
  • Защита на личните данни
  • Забележка и обяснение
  • Човешки алтернативи, внимание и резервен вариант

Прегледах внимателно тези предписания, вижте връзката тук.

Сега, след като поставих полезна основа върху тези свързани теми за етиката на ИИ и Закона за ИИ, ние сме готови да преминем към наскоро издаденото ACM „Декларация относно принципите за отговорни алгоритмични системи“ (между другото, тъй като заглавието на документа се отнася до отговорен алгоритмични системи, може да искате да погледнете моята оценка за това какво означава да се говори Надежден AIВиж връзката тук).

Пригответе се за пътуване в този най-нов набор от принципи на етиката на изкуствения интелект.

Внимателно копаене в декларираните от ACM етични правила на AI

Изявлението на ACM относно етичния AI се състои от тези девет ключови камъка:

  • Легитимност и компетентност
  • Минимизиране на вредата
  • Сигурност и поверителност
  • Прозрачност
  • Интерпретируемост и обяснимост
  • ремонтопригодност
  • Оспорваемост и проверимост
  • Отговорност и отговорност
  • Ограничаване на въздействието върху околната среда

Ако сравните този най-нов комплект с други забележимо налични комплекти, има много прилики или сходни съответствия между тях.

От една страна, можете да приемете това като добър знак.

Можем като цяло да се надяваме, че множеството принципи на етиката на ИИ, витаещи наоколо, се сливат към едно и също цялостно покритие. Виждайки, че един набор е донякъде сравним с друг набор, ви дава подобие на увереност, че тези комплекти са в рамките на едно и също поле, а не някак си в озадачаващо ляво поле.

Потенциално оплакване от някои е, че тези различни набори изглеждат приблизително еднакви, което тогава вероятно създава объркване или най-малкото ужас поради опасението, че не трябва да имаме многобройни привидно дублиращи се списъци. Не може ли да има само един списък? Проблемът, разбира се, е, че няма прост начин да накарате всички подобни списъци да бъдат напълно еднакви. Различни групи и различни организации са подходили към това по различни начини. Добрата новина е, че почти всички са стигнали до едно и също общо заключение. Можем да бъдем облекчени, че наборите нямат големи разлики, което може би би ни направило неспокойни, ако нямаше общ консенсус.

Противопоставящият се би могъл да увещава, че общността на тези списъци е обезпокоителна, като твърди, че може би има групово мислене. Може би всички тези различни групи мислят по един и същи начин и не могат да погледнат отвъд нормата. Всички ние попадаме в идентичен капан. Списъците привидно закотвят нашето мислене и ние не можем да видим по-далеч от собствения си нос.

Да погледнем отвъд носовете си несъмнено е достойна кауза.

Със сигурност съм готов да чуя какво имат да кажат противниците. Понякога те улавят нещо, което има титаничен насочвайки се към гигантски айсберг. Можем да използваме няколко наблюдателница с орлово око. Но по отношение на тези правила на етиката на изкуствения интелект не е имало нищо окончателно формулирано от противоположници, което да изглежда явно да подкопава или да поражда притеснения относно случващото се ненужно сходство. Мисля, че се справяме добре.

В този набор от ACM има няколко особено забележителни или открояващи се точки, които смятам, че заслужават специално внимание.

Първо, харесвам израза от най-високо ниво, който е малко по-различен от нормата.

Например, позовавайки се на легитимност и компетентност (първият елемент с водещи символи) предизвиква подобие на важността както на дизайнерските, така и на управленските компетенции, свързани с ИИ. В допълнение, на легитимност крилата фраза ни отвежда в етиката на ИИ намлява Правна област на AI. Казвам това, защото много от предписанията на етиката на ИИ се концентрират почти изцяло върху етичните последици, но изглежда пропускат или се притесняват да отбележат и правните последици. В правната област етичните съображения често се рекламират като „меки закони“, докато законите в книгите се тълкуват като „твърди закони“ (което означава, че носят тежестта на правните съдилища).

Една от любимите ми поговорки за всички времена беше изречена от известния юрист Ърл Уорън: „В цивилизования живот законът плува в морето от етика.“

Трябва да се уверим, че предписанията на етиката на ИИ също така обхващат и подчертават твърдата правна страна на нещата, както при изготвянето, въвеждането и прилагането на законите за ИИ.

Второ, оценявам, че списъкът включва оспорваемост и проверимост.

Многократно съм писал за стойността на това да можеш да се състезаваш или да повдигаш червен флаг, когато си обект на AI система, вж. връзката тук. Освен това, все по-често ще виждаме нови закони, които принуждават AI системите да бъдат одитирани, което обсъждах надълго относно закона на Ню Йорк (NYC) относно одитните отклонения на AI системите, използвани за наемане на служители и повишения, вж. връзката тук. За съжаление и според моето открито критикуване на новия закон на Ню Йорк, ако тези закони за проверка са погрешни, те вероятно ще създадат повече проблеми, отколкото ще решат.

Трето, има постепенно пробуждане, че изкуственият интелект може да повлияе на проблемите на устойчивостта и се радвам да видя, че на околната среда темата получи таксуване от най-високо ниво в тези правила на етиката на изкуствения интелект (вижте последния знак в списъка).

Самият акт на създаване на AI система може да изразходва много компютърни ресурси. Тези изчислителни ресурси могат пряко или непряко да бъдат узурпатори на устойчивостта. Има компромис, който трябва да се има предвид по отношение на ползите, които AI предоставя спрямо разходите, които идват заедно с AI. Последният от маркираните елементи на ACM отбелязва съображенията за устойчивост и околната среда, които възникват при AI. За моето отразяване на проблемите, свързани с въглеродния отпечатък, вижте връзката тук.

Сега, след като разгледахме списъка на ACM с правилата на етиката на ИИ, следваме, че навлизаме по-дълбоко във водите.

Ето официалните описания за всяко от етичните предписания на високо ниво на ИИ (цитирано от официалното изявление):

1. "Легитимност и компетентност: Проектантите на алгоритмични системи трябва да имат управленска компетентност и изрично разрешение за изграждане и внедряване на такива системи. Те също така трябва да имат опит в областта на приложенията, научна основа за предвидената употреба на системите и да бъдат широко считани за социално легитимни от заинтересованите страни, засегнати от системата. Трябва да се извършат правни и етични оценки, за да се потвърди, че всички рискове, въведени от системите, ще бъдат пропорционални на проблемите, които се разглеждат, и че всички компромиси между полза и вреда се разбират от всички съответни заинтересовани страни.

2. "Минимизиране на вредата: Мениджърите, дизайнерите, разработчиците, потребителите и другите заинтересовани страни от алгоритмичните системи трябва да са наясно с възможните грешки и пристрастия, включени в тяхното проектиране, внедряване и използване, както и с потенциалната вреда, която системата може да причини на хората и обществото. Организациите трябва рутинно да извършват оценки на въздействието върху системите, които използват, за да определят дали системата може да генерира вреда, особено дискриминационна вреда, и да прилагат подходящи смекчаващи мерки. Когато е възможно, те трябва да се учат от мерки за действително представяне, а не само от модели на минали решения, които сами по себе си може да са били дискриминационни.

3. "Сигурност и поверителност: Рискът от злонамерени страни може да бъде смекчен чрез въвеждане на най-добри практики за сигурност и поверителност във всяка фаза от жизнения цикъл на системите, включително стабилни контроли за смекчаване на нови уязвимости, които възникват в контекста на алгоритмичните системи.“

4. "Прозрачност: Разработчиците на системи се насърчават ясно да документират начина, по който конкретни набори от данни, променливи и модели са избрани за разработка, обучение, валидиране и тестване, както и специфичните мерки, които са използвани за гарантиране на качеството на данните и изхода. Системите трябва да посочват своето ниво на доверие във всеки резултат и хората трябва да се намесят, когато доверието е ниско. Разработчиците също трябва да документират подходите, които са били използвани за изследване за потенциални отклонения. За системи с критично въздействие върху живота и благосъстоянието трябва да се изискват процедури за независима проверка и валидиране. Публичният контрол на данните и моделите дава максимална възможност за корекция. По този начин разработчиците трябва да улеснят тестването на трети страни в обществен интерес.

5. "Тълкуемост и обяснимост: Мениджърите на алгоритмичните системи се насърчават да предоставят информация както относно процедурите, които използваните алгоритми следват (интерпретируемост), така и конкретните решения, които вземат (обяснимост). Обяснимостта може да бъде също толкова важна, колкото и точността, особено в контекст на обществена политика или във всяка среда, в която има опасения за това как алгоритмите могат да бъдат изкривени, за да облагодетелстват една група пред друга без потвърждение. Важно е да се прави разлика между обяснения и постфактум рационализации, които не отразяват доказателствата или процеса на вземане на решение, използван за достигане до обясняваното заключение.“

6. "Поддържаемост: Доказателства за надеждността на всички алгоритмични системи трябва да се събират през целия им жизнен цикъл, включително документиране на системните изисквания, дизайна или внедряването на промените, тестови случаи и резултати, както и регистър на откритите и коригирани грешки. Правилната поддръжка може да изисква системи за преквалификация с нови данни за обучение и/или замяна на използваните модели.“

7. "Оспорваемост и проверимост: Регулаторите трябва да насърчават приемането на механизми, които позволяват на лица и групи да поставят под съмнение резултатите и да търсят обезщетение за неблагоприятни ефекти, произтичащи от алгоритмично информирани решения. Мениджърите трябва да гарантират, че данните, моделите, алгоритмите и решенията са записани, така че да могат да бъдат одитирани и резултатите да бъдат възпроизведени в случаите, когато се подозира или се предполага, че е нанесена вреда. Стратегиите за одит трябва да бъдат публикувани, за да се даде възможност на лица, организации от обществен интерес и изследователи да преглеждат и препоръчват подобрения.

8. "Отговорност и отговорност: Публичните и частните органи трябва да носят отговорност за решенията, взети от използваните от тях алгоритми, дори ако не е възможно да се обясни подробно как тези алгоритми са довели до своите резултати. Такива органи трябва да отговарят за цели системи, както са разгърнати в техния специфичен контекст, а не само за отделните части, които съставляват дадена система. Когато бъдат открити проблеми в автоматизираните системи, организациите, отговорни за внедряването на тези системи, трябва да документират конкретните действия, които ще предприемат за отстраняване на проблема и при какви обстоятелства използването на такива технологии трябва да бъде спряно или прекратено.

9. "Ограничаване на въздействието върху околната среда: Алгоритмичните системи трябва да бъдат проектирани така, че да отчитат оценки на въздействието върху околната среда, включително въглеродни емисии както от обучение, така и от оперативни изчисления. Системите за изкуствен интелект трябва да бъдат проектирани така, че да гарантират, че техните въглеродни емисии са разумни предвид степента на точност, изисквана от контекста, в който се използват.

Вярвам, че ще прочетете внимателно и задълбочено всяко едно от тези важни правила на етиката на ИИ. Моля, вземете ги присърце.

Заключение

Има фина, но еднакво важна част от изявлението на ACM, която вярвам, че мнозина могат неволно да пренебрегнат. Позволете ми да обърна внимание на това.

Намеквам за част, която обсъжда агонизиращата главоблъсканица да трябва да претегляте компромиси, свързани с предписанията на етиката на ИИ. Виждате ли, повечето хора често безсмислено кимат с глава, когато четат принципите на Етичния изкуствен интелект и приемат, че всички предписания са еднакви по тежест и на всички предписания винаги ще се придава същото оптимално подобие на уважение и стойност.

Не и в реалния свят.

След като каучукът срещне пътя, всеки вид ИИ, който има дори малко сложност, ще изпита жестоко предписанията на етиката на ИИ за това, че някои от елементите са достатъчно постижими пред някои от другите принципи. Осъзнавам, че може да възкликнете силно, че целият ИИ трябва да максимизира всички предписания на етиката на ИИ, но това не е особено реалистично. Ако това е позицията, която искате да заемете, смея да твърдя, че вероятно ще трябва да кажете на повечето или почти всички създатели и потребители на AI да затворят магазина и да загърбят AI напълно.

Трябва да се направят компромиси, за да се измъкне ИИ от вратата. Като се има предвид това, аз не препоръчвам рязане на ъгли, които нарушават етиката на ИИ, нито намеквам, че трябва да нарушават законите за ИИ. Трябва да бъде изпълнен определен минимум, над който целта е да се стремим повече. В крайна сметка балансът трябва да бъде внимателно преценен. Този акт на балансиране трябва да се извърши внимателно, изрично, законно и с етиката на ИИ като добросъвестно и искрено убеждение (може да искате да видите как компаниите използват съвети по етика на ИИ, за да се опитат да осигурят този тържествен подход, вж. връзката тук).

Ето някои пунктирани точки, които декларацията на ACM споменава относно сложността на компромисите (цитирано от официалния документ):

  • „Решенията трябва да бъдат пропорционални на проблема, който се решава, дори ако това засяга сложността или цената (напр. отхвърляне на използването на обществено видеонаблюдение за проста задача за прогнозиране).“
  • „Трябва да се вземе предвид голямо разнообразие от показатели за ефективност и те могат да бъдат претеглени по различен начин в зависимост от домейна на приложението. Например, в някои здравни приложения ефектите от фалшивите отрицателни резултати могат да бъдат много по-лоши от фалшивите положителни резултати, докато в наказателното правосъдие последствията от фалшивите положителни резултати (напр. затваряне на невинен човек) могат да бъдат много по-лоши от фалшивите отрицателни резултати. Най-желаната настройка на операционната система рядко е тази с максимална точност.“
  • „Притесненията относно поверителността, защитата на търговските тайни или разкриването на анализи, които биха могли да позволят на злонамерени играчи да играят на системата, могат да оправдаят ограничаването на достъпа до квалифицирани лица, но те не трябва да се използват, за да оправдаят ограничаването на контрола от трети страни или да освободят разработчиците от задължението за потвърждаване и поправяне на грешки."
  • „Прозрачността трябва да бъде съчетана с процеси за отчетност, които позволяват на заинтересованите страни, засегнати от алгоритмична система, да търсят смислено обезщетение за нанесени вреди. Прозрачността не трябва да се използва за легитимиране на система или за прехвърляне на отговорност на други страни.
  • „Когато въздействието на една система е голямо, по-обяснима система може да бъде за предпочитане. В много случаи няма компромис между обяснимостта и точността. В някои контексти обаче неправилните обяснения могат да бъдат дори по-лоши от липсата на обяснение (напр. в здравните системи един симптом може да съответства на много възможни заболявания, а не само на едно).“

Тези, които разработват или използват AI, може да не осъзнаят явно компромисите, пред които са изправени. Висшите ръководители на една фирма биха могли наивно да приемат, че AI отговаря на максималните изисквания на всички принципи на етиката на AI. Те или вярват в това, защото нямат представа за AI, или искат да повярват в това и може би правят намигване-намигване, за да приемат лесно AI.

Шансовете са, че ако не успеете да се изправите по същество и открито срещу компромисите, това ще доведе до AI, който ще причини вреда. Тези вреди от своя страна вероятно ще доведат до потенциално мащабни задължения на фирмата. На всичкото отгоре, конвенционалните закони могат да влязат в сила за възможни престъпни деяния, свързани с AI, заедно с по-новите закони, фокусирани върху AI, които също засягат това. Тон тухли чакат над главите на онези, които смятат, че могат да се справят с компромисите или които напълно не знаят, че компромисите съществуват (смазващо осъзнаване неизбежно ще ги сполети).

Засега ще дам последната дума по тази тема на заключителния аспект на изявлението на ACM, тъй като смятам, че върши стабилна работа за обяснение какво макроскопично се стремят да изведат тези етични предписания на ИИ:

  • „Горните препоръки се фокусират върху отговорното проектиране, разработване и използване на алгоритмични системи; отговорността трябва да се определя от закона и обществения ред. Нарастващата мощ на алгоритмичните системи и тяхното използване в критични за живота и последващи приложения означава, че трябва да се внимава много при използването им. Тези девет инструментални принципа са предназначени да бъдат вдъхновяващи при започване на дискусии, иницииране на изследвания и разработване на методи за управление, за да донесат ползи на широк кръг потребители, като същевременно насърчават надеждността, безопасността и отговорността. В крайна сметка специфичният контекст е този, който определя правилния дизайн и използване на алгоритмична система в сътрудничество с представители на всички засегнати заинтересовани страни” (цитирано от официалния документ).

Както проницателно ни казват мъдри думи, едно пътуване от хиляда мили започва с първата стъпка.

Умолявам ви да се запознаете с етиката на изкуствения интелект и закона за изкуствения интелект, като предприемете всяка първа стъпка, която ще ви помогне да започнете, и след това да помогнете в продължаването на тези жизненоважни начинания. Хубавото е, че все още сме в ранна детска възраст, за да разберем как да управляваме и да се справяме обществото с AI, следователно вие влизате на първия етаж и вашите усилия могат очевидно да оформят вашето бъдеще и бъдещето на всички нас.

Пътуването на AI току-що започна и жизненоважните първи стъпки все още са в ход.

Източник: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- професионална-асоциация-на-акм/