Имплантирането на правни разсъждения в AI може интелигентно да постигне приравняване на човешките ценности, казва етиката на AI и закона за AI

В днешната колона ще съчетая безброй привидно различни теми, свързани с ИИ, в една добре изтъкана тъкан.

Готови ли сте?

Представете си, че използвате приложение, работещо с AI, което ви помага, докато изпълнявате някаква важна задача. Може би въпросът е финансов или може да е свързан със здравето. Същността е, че зависи от AI да направи правилното нещо и да се представи по предполагаем безопасен и стабилен начин.

Да предположим, че AI се насочи към неетична територия.

Може да не осъзнавате, че AI прави това.

Например, AI може да разчита на потенциално скрити дискриминационни фактори като раса или пол, въпреки че може да нямате жизнеспособни средства за разпознаване на неблагоприятната употреба. Ето вие, съвсем сами, извличате късия край на клечката чрез AI, който или е създаден от самото начало по проблематичен начин, или е успял да се насочи към рисковани и гранични етични заплахи (ще кажа повече за това след малко).

Какво можете да направите или какво може да се направи за AI, който реши да тръгне по неетичен път?

Освен че се опитвам предварително да конструирам изкуствения интелект, така че да не извършва този вид коварни действия, по-рано също описах, че има нарастващ интерес към вграждането на AI етична проверка компонент в процъфтяващото тресавище на иначе Дивия запад, всевъзможни AI системи, които се изхвърлят на пазара. Идеята е, че за да се опитаме да попречим на приложение, вдъхновено от изкуствен интелект, да премине в етични измерения, бихме могли да използваме допълнителен изкуствен интелект, за да направим проверка и баланс. Този добавен AI може да е извън целевото AI приложение или може да бъде компонент, вграден или имплантиран директно в AI, който искаме да проверим двойно.

Както казах преди, вижте връзката тук: „Една наскоро появила се тенденция се състои в опити за изграждане на етични предпазни огради в AI, които ще уловят, когато останалата част от AI системата започне да надхвърля предварително зададените етични граници. В известен смисъл целта е да се използва самият AI, за да се предпази от етични грешки. Може да се каже, че ние се стремим да накараме AI да се излекува сам“ (Ланс Елиът, „Създаване на етичен AI, който следи неетичния AI и се опитва да възпре лошия AI от действия“, Forbes, 28 март 2022 г.).

Може също така да сметнете за интерес моята книга AI ботове пазители, понякога наричан ангели пазители, който обхваща техническите основи на тази най-съвременна вградена двойна проверка AI-within-AI, вижте връзката тук.

Изводът е, че вашият бекон за щастие може да бъде спасен от използването на вграден AI елемент за двойна проверка на етиката, който е създаден и имплантиран в AI приложение, което използвате. Но ще бъде ли това достатъчен пазител, за да се уверите, че изкуственият интелект няма да ви вдърви напълно и да се впуснете дори в опасна земя?

Виждате ли, приложението AI може да работи привидно незаконен действа.

Едно е да имаме AI, който отива в сивата зона на това, което считаме за етично или неетично поведение. Еднакво смущаващо поведение и вероятно влошаване на загрижеността водят до ИИ, който просто прескача акулата и се спуска в калпавата тъмнина на напълно незаконни действия.

Незаконният AI е лош. Позволяването на незаконен AI да остане без надзор е лошо. Някои правни учени са открито притеснени, че навлизането и широкото разпространение на AI постепенно и ужасяващо ще подкопае нашето подобие на върховенството на закона, вижте моя анализ на връзката тук.

Изчакайте за секунда, може би ще кажете.

Може да се изкушите да мислите, че разработчиците на AI биха го направили никога програмират своя AI да противоречи на закона. Невъобразимо. Само злите злодеи биха го направили (които, между другото, имайте предвид, че има такива, които умишлено създават и използват AI за зли цели, нарастваща област на интерес за престъпници и други, които желаят да използват AI за престъпни дейности).

Съжаляваме, но е пожелателно мислене да приемем, че всички незли разработчици на AI ще се уверят стриктно, че техният AI е напълно законосъобразен. Възможно е AI да се самонастройва и да се лута в незаконна дейност. Разбира се, съществува и потенциалът, че разработчиците на AI или са искали AI да действа незаконно, или че не са били наясно какво представлява незаконни спрямо правни действия, когато са създавали AI (да, това е напълно възможно, а именно, че изцяло технологичният AI екип може да не знае за законните шенанигани на своя AI, което не е извинително и въпреки това се случва с тревожна честота).

Какво може да се направи по въпроса?

Още веднъж, освен че се опитваме да гарантираме, че AI извън портата е железен и законен, допълнителен подход за набиране на пара включва вграждане или имплантиране на AI компонент, който извършва легална двойна проверка за останалата част от приложението AI. Седейки тихо и често незабелязано, този добавен AI наблюдава останалата част от AI, за да се опита да разбере дали AI ще стане измамник или поне ще премине границите на законовите или регулаторни наложени ограничения.

Сега имаме два вида AI двойна проверка, които потенциално са вградени в AI приложение:

  • Двойна проверка на етиката на изкуствения интелект: В реално време този компонент или AI добавка оценява останалата част от AI за етично и неетично поведение, което AI проявява
  • AI правна двойна проверка: В реално време този компонент или добавка за изкуствен интелект оценява останалата част от изкуствения интелект, за да гарантира, че остава в рамките на правните ключови камъни и за улавяне на възникващи незаконни дейности от изкуствения интелект

За да поясним, това са сравнително нови концепции и като такъв AI, който използвате днес, може да бъде във всяко от тези настоящи условия:

  • AI, който изобщо няма включени двойни проверки
  • AI, който има включена двойна проверка на AI Ethics, но няма други двойни проверки
  • AI, който има включен AI Legal инструмент за двойна проверка, но няма други инструменти за двойна проверка
  • AI, който има двойна проверка на AI Ethics и AI Legal двойна проверка
  • Други

Има някои подчертано трудни аспекти на това, че и инструментът за двойна проверка на AI Ethics, и инструментът за двойна проверка на AI Legal работят рамо до рамо в приложение за AI като родствени брат и сестра. Това е вид дуализъм, който може да бъде по-труден за координиране, отколкото бихте предположили (мисля, че всички знаем, че братята и сестрите могат да имат най-тесни връзки, въпреки че те също могат да се карат като Дикенс от време на време и да имат енергично противопоставяне изгледи).

Обсъждал съм надълго и нашироко този тип трудности дуализъм: „В ИИ за социално благо се наблюдава пренебрегван дуализъм, включващ липсата на обхващане както на ролята на изкуствения морален избор, така и на изкуственото правно разсъждение в напредналите системи на ИИ. Усилията на изследователите и разработчиците на ИИ са склонни да се съсредоточат върху това как да изработят и вградят изкуствени морални агенти, които да насочват вземането на морални решения, когато една ИИ система работи в полето, но не са се фокусирали и съчетали използването на изкуствени правни разсъждения , което е еднакво необходимо за стабилни морални и правни резултати“ (Ланс Елиът, „Пренебрегнатият дуализъм на изкуствената морална агенция и изкуственото правно разсъждение в ИИ за социално благо“, Годишна конференция на Харвардския университет CRCS 2020 г., Харвардски център за научни изследвания и изчислително общество)

Ако искате да помислите защо може да има напрежение между двойна проверка на етиката на ИИ и правна двойна проверка на ИИ, може да откриете този забележителен цитат с умопомрачителна концептуална стойност: „Законът може да разреши някои конкретни действия, въпреки че този акт е неморален; и законът може да забрани дадено действие, въпреки че това действие е морално допустимо или дори морално задължително” (Шели Кейгън, Границите на морала, 1998).

Нека леко да изместим фокуса си и да видим как тези двойни проверки се вписват в друга силно проучена тема за ИИ, а именно Отговорен AI или съгласувано разглеждане на съответствието на човешките ценности и ИИ.

Общото схващане е, че искаме AI, който се придържа към правилните и желани човешки ценности. Някои наричат ​​това като Отговорен AI. Други обсъждат по подобен начин Отговорен AI, Надежден AI, и AI подравняване, всички от които засягат един и същ крайъгълен принцип. За моята дискусия по тези важни въпроси вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Как можем да накараме AI да се приведе в съответствие с човешките ценности?

Както беше предложено по-рано, ние се надяваме, че разработчиците на ИИ ще бъдат наясно с разработването на ИИ, който постига придържане към Отговорен ИИ. За съжаление може и да не са, според причините, изяснени по-рано. В допълнение, те може да се опитат да го направят, но въпреки това AI в крайна сметка се самонастройва отвъд изявената сфера на етичното поведение или евентуално в незаконни води.

Добре, тогава трябва да разгледаме нашите удобни денди двойни проверки като средство за укрепване на тези рискове и експозиции. Използването на добре разработен инструмент за двойна проверка на етиката на изкуствения интелект може съществено да подпомогне привеждането на изкуствения интелект в съответствие с човешките ценности. По същия начин, използването на добре разработен AI Legal двойна проверка може съществено да помогне за привеждането в съответствие на AI с човешките ценности.

По този начин ключово и все още недобре известно средство за търсене на отговорен AI, надежден AI, отговорен AI, подравняване на AI и т.н., ще включва използването на инструменти за двойна проверка на AI, като двойна проверка на AI Ethics и AI Правна двойна проверка, която ще работи неуморно като двойна проверка на AI, в който са вградени.

В тази дискусия тук бих искал да навляза в малко повече подробности за естеството и конструкциите на AI Legal двойни проверки, които могат да бъдат вградени в AI. За да направите това, може да е полезно да споделите с вас допълнителна информация по общата тема за ИИ и право.

За безсмислено изследване на това как ИИ и законът се смесват помежду си, вижте дискусията ми на връзката тук. В моя проницателен поглед към ИИ и право свързване, предоставям тази ясна концепция за два основни начина за взаимно свързване на ИИ и закона:

  • (1) Закон, приложен към ИИ: Формулирането, въвеждането и прилагането на закони, приложими към регулирането или управлението на изкуствения интелект в нашето общество
  • (2) AI-приложен към правото: Технология за изкуствен интелект, разработена и приложена в закона, включително AI-базирано правно разсъждение (AILR), вложено във високотехнологични приложения на LegalTech за автономно или полуавтономно изпълнение на адвокатски задачи

Първата изброена гледна точка се състои от обмисляне как съществуващите и новите закони ще управляват ИИ. Втората изброена перспектива е свързана с прилагането на ИИ към закона.

Тази последна категория обикновено включва използване на AI-базирано правно разсъждение (AILR) в различни онлайн инструменти, използвани от адвокати. Например, AI може да бъде част от пакет за управление на жизнения цикъл на договора (CLM), който помага на адвокатите, като идентифицира договорния език, който ще бъде полезен за изготвяне на нови договори или може да открие договори, които имат правно лъскав език, който позволява злополуки или правни вратички (за моя поглед към така наречените „миризми на закон“, които могат да бъдат разпознати от AI, вижте връзката тук).

Неизбежно ще имаме AI, приложен към закона, който става достъпен за използване от широката общественост и който не изисква адвокат да бъде в течение. В момента, в резултат на различни ограничения, включително UPL (Unauthorized Practical of Law), предоставянето на базирани на AI приложения за правни съвети е труден и противоречив въпрос, вижте дискусията ми на връзката тук.

Доведох това въведение относно AI & Law, за да посоча, че друга инструментална употреба на AI, приложена към закона, би била създаването на AI Legal двойни проверки.

Да, същият вид технологична мощ, включена в прилагането на AI към закона, може да служи като двойно задължение, като използва AI за обслужване като вграден или имплантиран AI правна двойна проверка. AI Legal двойна проверка е компонент, който трябва да бъде запознат с правни аспекти. Когато останалата част от приложението AI извършва различни действия, инструментът за двойна проверка на AI Legal преценява дали приложението AI прави това законно и в рамките на законови ограничения.

Компонентът за двойна проверка на AI Legal не е задължително да покрива пълната гама от всичко, което трябва да се знае за закона. В зависимост от естеството на AI приложението по отношение на целта и действията на AI като цяло, правната двойна проверка на AI може да бъде много по-тясна по отношение на правната експертиза, която съдържа.

Идентифицирах полезна рамка за демонстриране на това как AI в правната област обхваща поредица от автономни способности, известни като нива на автономия (LoA). За общ преглед вижте моя Forbes публикация в колона от 21 ноември 2022 г. „Безсмисленият изчерпателен убедителен случай защо адвокатите трябва да знаят за ИИ и закона“ на връзката тук, а за подробно техническо описание вижте моята задълбочена изследователска статия в MIT Computational Law Journal от 7 декември 2021 г., вж връзката тук.

Рамката изяснява пет нива на AI, използвани в правни начинания:

  • Ниво 0: Няма автоматизация за правна работа, базирана на AI
  • Ниво 1: Проста автоматизация на помощ за правна работа, базирана на AI
  • Ниво 2: Усъвършенствана автоматизация на помощ за правна работа, базирана на AI
  • Ниво 3: Полуавтономна автоматизация за правна работа, базирана на AI
  • Ниво 4: Автономен домейн за правна работа, базирана на AI
  • Ниво 5: Напълно автономно за правна работа, базирана на AI

Ще ги опиша накратко тук.

Ниво 0 се счита за ниво без автоматизация. Правните разсъждения и правните задачи се изпълняват чрез ръчни методи и основно се осъществяват чрез подходи, базирани на хартия.

Ниво 1 се състои от проста помощна автоматизация за правни разсъждения на AI. Примери за тази категория биха включвали използването на ежедневна компютърна текстообработка, използването на ежедневни компютърно базирани електронни таблици, достъп до онлайн правни документи, които се съхраняват и извличат по електронен път и т.н.

Ниво 2 се състои от усъвършенствана автоматизация на помощ за правни разсъждения на AI. Примери за тази категория биха включвали използването на елементарна обработка на естествен език (NLP) в стил на заявка, опростени елементи на машинно обучение (ML), инструменти за статистически анализ за прогнозиране на правни казуси и др.

Ниво 3 се състои от полуавтономна автоматизация за правни разсъждения с ИИ. Примерите за тази категория включват използването на усъвършенствани системи, базирани на знания (KBS) за правни разсъждения, използването на машинно обучение и дълбоко обучение (ML/DL) за правни разсъждения, усъвършенствано NLP и т.н.

Ниво 4 се състои от автономни компютърно-базирани системи за домейн за правни разсъждения с ИИ. Това ниво използва повторно концептуалното понятие за домейни на оперативния дизайн (ODD), както се използва за самоуправляващи се автомобили, но като се прилага към правната област. Правните домейни могат да бъдат класифицирани по функционални области, като семейно право, право върху недвижимите имоти, право върху несъстоятелността, право на околната среда, данъчно право и др.

Ниво 5 се състои от напълно автономни компютърно-базирани системи за правни разсъждения с ИИ. В известен смисъл Ниво 5 е надмножеството на Ниво 4 по отношение на обхващането на всички възможни правни области. Моля, осъзнайте, че това е доста трудна поръчка.

Можете да си представите тези нива на автономност наравно със сходните употреби, когато обсъждате самоуправляващи се автомобили и автономни превозни средства (също въз основа на официалния стандарт SAE, вижте моето покритие на връзката тук). Все още нямаме самоуправляващи се автомобили от ниво 5 на SAE. Наближаваме самоуправляващите се автомобили от ниво 4 на SAE. Повечето конвенционални автомобили са на SAE ниво 2, докато някои от по-новите автомобили преминават към SAE ниво 3.

В правната област все още нямаме ниво 5 AILR. Ние се докосваме до някакво ниво 4, макар и в изключително тесни ODD. Ниво 3 започва да вижда бял свят, докато основата на AILR днес е предимно на ниво 2.

Скорошна изследователска статия за AI, приложен към закона, постави типизация, известна като Закон Информира Код. Изследователят заявява следното: „Една от основните цели на Закон Информира Код дневният ред е да научим ИИ да следва духа на закона“ (Джон Дж. Най, „Законът информира кода: Подход на правната информатика за съгласуване на изкуствения интелект с хората“, Northwestern Journal of Technology and Intellectual Property, том 20, предстои). Има някои съществени съображения, че Закон Информира Код мантра извежда и аз ще ви преведа през няколко от тези ключови принципи.

Преди да се потопя в темата, бих искал първо да положа някои основни основи за AI и по-специално за AI етиката и закона за AI, като по този начин се уверя, че дискусията ще бъде контекстуално разумна.

Нарастващата осведоменост за етичния AI, а също и закона за AI

Неотдавнашната ера на AI първоначално се разглежда като AI за добро, което означава, че можем да използваме AI за подобряването на човечеството. По петите на AI за добро дойде осъзнаването, че ние също сме потопени в AI за лошо. Това включва ИИ, който е създаден или самопроменен, за да бъде дискриминационен и прави изчислителни избори, внушаващи ненужни пристрастия. Понякога изкуственият интелект е изграден по този начин, докато в други случаи се отклонява в тази неприятна територия.

Искам да съм напълно сигурен, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от несъзнателния AI, който имаме днес. Ако искахме да спекулираме безумно за разумния ИИ, тази дискусия може да тръгне в коренно различна посока. Смята се, че един разумен AI ще бъде от човешко качество. Трябва да имате предвид, че чувствителният AI е когнитивният еквивалент на човека. Нещо повече, тъй като някои спекулират, че може да имаме супер-интелигентен ИИ, е възможно такъв ИИ да се окаже по-умен от хората (за моето изследване на супер-интелигентен ИИ като възможност вж. покритието тук).

Горещо препоръчвам да държим нещата на земята и да вземем предвид днешния изчислителен несъзнателен ИИ.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс дори при сравнително обширни тестове да има отклонения, все още вградени в моделите за съпоставяне на шаблони на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, са обект на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Аз също наскоро прегледах Законът за правата на AI което е официалното заглавие на официалния документ на правителството на САЩ, озаглавен „Проект за Закон за правата на ИИ: да накараме автоматизираните системи да работят за американския народ“, който е резултат от едногодишни усилия на Службата за политика в областта на науката и технологиите (OSTP ). OSTP е федерален орган, който служи за консултиране на американския президент и изпълнителния офис на САЩ по различни технологични, научни и инженерни аспекти от национално значение. В този смисъл можете да кажете, че този Закон за правата на ИИ е документ, одобрен от и подкрепен от съществуващия Белия дом на САЩ.

В Декларацията за правата на ИИ има пет основни категории:

  • Безопасни и ефективни системи
  • Алгоритмични защити срещу дискриминация
  • Защита на личните данни
  • Забележка и обяснение
  • Човешки алтернативи, внимание и резервен вариант

Прегледах внимателно тези предписания, вижте връзката тук.

Сега, след като положих полезна основа върху тези свързани теми за етиката на ИИ и Закона за ИИ, ние сме готови да се впуснем в опияняващата тема за правните двойни проверки на ИИ и царството на Закон Информира Код.

AI правни двойни проверки, вградени в AI за приравняване на човешките ценности

Понякога се позовавам на AI легални двойни проверки чрез акроним на AI-LDC. Това е малко визуално дразнещо за тези, които не са запознати с акронима. Поради това няма да използвам този конкретен акроним в тази дискусия, но исках да ви го спомена като предупреждение.

За да разопаковаме някои от сложностите на AI Legal двойните проверки, нека разгледаме тези основни точки:

  • Използване на AI Правни инструменти за двойна проверка като механизъм за привеждане в съответствие на AI човешките ценности
  • По-широкият AI съответно ще изисква по-стабилни AI правни двойни проверки
  • AI Legal двойни проверяващи приемат закона и по-специално не създават закони (вероятно)
  • Деликатен баланс между AI Правно въплъщение на закона като правила срещу стандарти
  • Изискване на доказателство за пудинга, когато става въпрос за спазване на закона от ИИ

Поради ограничения на пространството, засега ще покрия само тези пет точки, но моля, внимавайте за по-нататъшно отразяване в моята колона, обхващаща допълнителни и също толкова забележителни съображения относно тези бързо развиващи се и напредващи въпроси.

Точно сега, затегнете колана си и се пригответе за ободряващо пътуване.

  • Използване на AI Правни инструменти за двойна проверка като механизъм за привеждане в съответствие на AI човешките ценности

Има много начини да се опитаме да постигнем хармонично съответствие между AI и човешките ценности.

Както споменахме по-рано, ние можем да изготвим и обнародваме етиката на ИИ и да се стремим да накараме разработчиците на ИИ и тези, които прилагат и оперират с ИИ, да спазват тези ключови камъни. За съжаление само това няма да свърши работа. Имате някои дизайнери, които неизбежно няма да разберат посланието. Имате някои конструктори, които ще парадират с етичния AI и ще се опитат да заобиколят донякъде хлабавите предписани принципи. И така нататък.

Използването на подходи на „меки закони“, включващи етиката на ИИ, трябва почти неумолимо да се съчетава с пътища на „твърди закони“, като приемане на закони и разпоредби, които ще изпратят мощен сигнал до всички, които създават или използват ИИ. Дългата ръка на закона може да дойде да ви вземе, ако не използвате разумно AI. Звукът от дрънченето на вратите на затвора може да привлече остро внимание.

Голям проблем обаче е, че понякога вратата на обора вече е пуснала конете навън. AI, който е насочен, потенциално ще произвежда всякакви незаконни действия и ще продължи да го прави, докато не просто бъде заловен, но и когато някои правоприлагащи органи най-накрая се засилят, за да спрат потока от незаконни действия. Всичко това може да отнеме време. Междувременно хората биват наранявани по един или друг начин.

В този набег идва правната двойна проверка на AI.

Като се намира в приложение за AI, правната двойна проверка на AI е в състояние незабавно да открие, когато изглежда, че AI нарушава закона. Правната двойна проверка на AI може да спре AI на място. Или компонентът може да предупреждава хората за забелязаните незаконни дейности, като прави това навреме, което може да подтикне надзорниците към спешни коригиращи действия. Съществува и разглежданото формализирано регистриране, което компонентът може да създаде, осигурявайки осезаемо подобие на одитна пътека за целите на кодифициране на неблагоприятните действия на ИИ.

Твърди се, че нашите закони са форма на конгломерат от множество агенти, така че законите неизбежно са смесица от това, което обществото се е стремило да хвърли като баланс между вероятно противоречиви възгледи за правилно и неправилно обществено поведение. Следователно AI Legal двойна проверка, базирана на нашите закони, въплъщава тази смес.

Трябва да се отбележи, че това е повече от просто програмиране на списък с окончателни правни правила. Законите обикновено са по-гъвкави и се стремят към всеобхватни стандарти, вместо да определят най-дребните микроскопични правила. Сложностите са много.

Връщайки се към по-рано отбелязаната изследователска статия, ето как тези съображения могат да се разглеждат и по отношение на стремежа към AI Alignment: „Правото, приложната философия на мултиагентното привеждане в съответствие, уникално изпълнява тези критерии. Подравняването е проблем, защото не можем ex ante определят правила, които напълно и доказуемо насочват доброто поведение на ИИ. По същия начин, страните по правен договор не могат да предвидят всеки непредвиден случай на техните взаимоотношения, а законодателите не могат да предвидят конкретните обстоятелства, при които ще се прилагат техните закони. Ето защо голяма част от правото е съзвездие от стандарти” (пак там).

Въплъщаването на закона в AI Legal двойна проверка е много по-предизвикателно, отколкото може да предположите на пръв поглед.

С напредването на ИИ ще трябва да използваме съответно този напредък. Оказва се, че това, което е добро за гъската, е добро и за гусака. Тези от нас, които постигат напредък в ИИ, приложен към закона, разширяват границите на ИИ и несъмнено създават нови постижения, които в крайна сметка могат да допринесат за цялостния прогрес на ИИ.

  • По-широкият AI съответно ще изисква по-стабилни AI правни двойни проверки

Гамбитът на котка и мишка се изправя пред тази тема.

Шансовете са, че с напредването на изкуствения интелект всеки компонент за правна двойна проверка на изкуствения интелект ще намира проблемите все по-трудни и по-трудни за справяне. Например, AI приложение, което се проверява, може да има новосъздадени супер подли начини за скриване на незаконните действия, които AI предприема. Дори ИИ да не поема по подъл път, цялостната сложност на ИИ сама по себе си може да бъде обезсърчително препятствие за търсенето на правна двойна проверка на ИИ.

Ето как това става особено важно.

Да предположим, че разработчик на AI или някаква фирма, използваща AI, декларира, че има правна двойна проверка на AI, която е вградена в базираното на AI приложение. Воала, те изглежда вече са си измили ръцете от всякакви по-нататъшни опасения. AI Legal двойна проверка ще се погрижи за всичко.

Не е така.

Правната двойна проверка на AI може да е недостатъчна за естеството на включеното AI приложение. Съществува също така възможността правната двойна проверка на AI да остарее, може би да не е актуализирана с най-новите закони, отнасящи се до приложението AI. Могат да се предвидят множество причини защо самото присъствие на AI Legal двойна проверка няма да бъде отличен куршум.

Обърнете внимание на тези прозрения от по-рано цитираното изследване: „С напредването на най-съвременните технологии за AI можем да задаваме итеративно по-високи ленти на демонстрирани способности за разбиране на правни въпроси. Ако програмист твърди, че неговата система има разширени възможности за задачи, той трябва да демонстрира съответно усъвършенствано правно разбиране и правни, разсъждаващи способности на AI, които практически нямат таван на трудност, когато разглеждат блатото от закони и разпоредби във времето, прецедентите и юрисдикциите " (пак там).

  • AI Legal двойни проверяващи приемат закона и по-специално не създават закони (вероятно)

Сигурен съм, че някои от вас са ужасени от идеята да имат тези AI Legal двойни проверки.

Едно често изразявано безпокойство е, че очевидно ще позволим на AI да решава нашите закони вместо нас. Боже мой, може би си мислите, някаква автоматизация ще изпревари човечеството. Тези проклети вградени AI правни инструменти за двойна проверка ще станат крале по подразбиране на нашите закони. Каквото и да направят, ще бъде това, което изглежда законът.

Хората ще бъдат управлявани от AI.

И тези AI Legal двойни проверки са хлъзгавият наклон, който ни отвежда там.

Контрааргументът е, че подобни приказки са част от теориите на конспирацията. Вие диво постулирате и се изнервяте. Реалността е, че тези AI Legal двойни проверяващи не са разумни, те няма да превземат планетата и рекламите за техния екзистенциален риск са просто абсурдни и изключително надценени.

Като цяло, оставайки със спокойна и разумна поза, трябва да имаме предвид, че правните двойни проверки на AI служат за правилно отразяване на закона, а не по дизайн или случайно отиват по-далеч, за да някак си по подразбиране в почитаната сфера на правене закон. Като оставим настрана екстраполациите на чувствителността, със сигурност можем да се съгласим, че съществува реална и належаща загриженост, че инструментът за двойна проверка на AI Legal може в крайна сметка да представи погрешно истинската природа на даден закон.

На свой ред можете да твърдите, че следователно този конкретен „погрешно представен“ закон по същество се създава наново, тъй като вече не означава подходящо това, което е предназначено от действителния закон. Вярвам, че откровено виждате как това е фино, но показателно съображение. Във всеки един момент правната двойна проверка на AI би могла на виртуална основа, като създава или да кажем „халюцинира“ нови закони просто по начина, по който AI компонентът тълкува закона, както първоначално е заявен или въплътен в AI (за мое покритие на AI т.нар халюцинацииВиж връзката тук).

Трябва да се внимава стриктно.

По тази тема гореспоменатото изследователско проучване предлага тази паралелна мисъл по отношение на стремежа да се избегне пресичането на тази свещена линия: „Ние не се стремим ИИ да има легитимността да създава закони, да създава правен прецедент или да налага закон. Всъщност това би подкопало нашия подход (и ние трябва да инвестираме значителни усилия, за да предотвратим това). По-скоро най-амбициозната цел на Law Informing Code е изчислително кодиране и вграждане на възможностите за обобщаване на съществуващи правни концепции и стандарти в валидирана производителност на ИИ” (пак там).

  • Деликатен баланс между AI Правно въплъщение на закона като правила срещу стандарти

Законите са объркани.

За почти всеки закон в книгите вероятно има множество тълкувания за това какво законът предвижда в действителната практика. На езика на областта на изкуствения интелект ние наричаме законите семантично двусмислени. Това прави разработването на AI, приложено към закона, толкова вълнуващо и едновременно с това досадно предизвикателство. За разлика от прецизното събиране на числа, което може да видите за, да речем, финансово ориентирани AI приложения, желанието да въплътим нашите закони в AI води до справяне с цунами от семантични неясноти.

В книгата на моята фондация относно основите на AI Legal Reasoning (AILR) обсъждам как предишните опити за просто кодифициране на законите в набор от ограничени правила не ни доведоха толкова далеч, колкото бихме искали да стигнем в правната област (вж. връзката тук). Днешният AILR трябва да включва интеграция между използването на правила и това, което може да се нарече всеобхватни стандарти, които законът представлява.

Този важен баланс може да бъде изразен по следния начин: „На практика повечето законови разпоредби се намират някъде в спектъра между чистите правила и чистите стандарти, а правната теория може да помогне да се оцени правилната комбинация от „правилност“ и „стандартност“ при уточняване на целите на AI системите” (пак там).

  • Изискване на доказателство за пудинга, когато става въпрос за спазване на закона от ИИ

Да искаш нещо е различно от това да имаш нещо.

Тази частица мъдрост се появява, когато предлагаме, че макар да искаме да имаме AI Legal двойни проверки, ние изобилно трябва да се уверим, че работят и работят правилно. Имайте предвид, че това представлява друго трудно и изтощително препятствие. По-рано разгледах най-новите постижения и предизвикателства при проверката и валидирането на AI, вижте връзката тук.

Както се отбелязва в изследователския документ: „За да се преодолее празнината, преди AI моделите да бъдат разгърнати във все по-агентски капацитет, напр. напълно автономни превозни средства по главните пътища, внедряващата страна трябва да демонстрира разбирането на системата за човешките цели, политики и правни стандарти. Процедурата за валидиране би могла да илюстрира „разбирането“ на ИИ за „смисъла“ на правните концепции“ (пак там).

Заключение

Призовавам ви да обмислите да се присъедините към мен в тази благородна мисия за изграждане и прилагане на AI Legal двойни проверки. Имаме нужда от повече внимание и ресурси, посветени на този добродетелен стремеж.

Това също осигурява двойно задължение, както беше споменато по-рано, към постигане на AI Legal Reasoning (AILR), което може да се използва за подпомагане на адвокати и потенциално да се използва директно от широката общественост. Наистина, някои твърдят яростно, че единственият жизнеспособен начин за постигане на по-пълно усещане за достъп до правосъдие (A2J) ще бъде чрез създаването на AI, който въплъщава правни способности и може да бъде достъпен от всички.

Една бърза последна точка за сега.

Досегашната дискусия подчертава, че AI Legal двойната проверка ще бъде вградена или имплантирана в AI. Това наистина е основният фокус на онези, които проучват и предприемат това нововъзникващо царство.

Ето въпрос, който си струва да обмислите.

Сложете шапката си за мислене.

Защо не използвате AI Legal двойни проверки във целия софтуер?

Същността е, че вместо да използваме изключително AI Legal двойни проверки в AI, може би трябва да разширим нашата гледна точка. Всякакъв вид софтуер може да се заблуди законно. Несъмнено изкуственият интелект привлече лъвския дял от вниманието поради начините, по които изкуственият интелект обикновено се използва, като например вземането на мъчителни решения, които влияят на хората в ежедневието им. Бихте могли лесно да твърдите, че има много системи, които не са AI, които правят същото.

По същество не трябва да позволяваме на който и да е софтуер да има свободна възможност да избягва или предотвратява закона.

Припомнете си и по-рано, че споменах двете категории комбиниране на ИИ и закона. Тук сме се фокусирали върху използването на AI, приложено към закона. От другата страна на монетата е прилагането на закона към ИИ. Да предположим, че приемаме закони, които изискват използването на AI Legal двойни проверки.

Първоначално това може да се ограничи до AI системи, особено тези, оценени като особено високорискови. Постепенно същото изискване за правна двойна проверка на AI може да бъде разширено и за софтуер, който не е AI. Отново няма безплатни вози.

Докато се занимавате с това по-горе съображение, аз ще подправя нещата като заключителен тийзър. Ако ще се опитваме да изискваме AI Legal двойни проверки, може също така да направим същото относно AI Ethics двойни проверки. Използването на AI Legal двойна проверка е само половината от историята и ние не можем да пренебрегнем или забравим опасенията, свързани с етиката на AI.

Ще завърша тази весела беседа с един от любимите ми цитати. Според мъдрите думи на Ърл Уорън, известният юрист, който е бил главен съдия на Съединените щати: „В цивилизования живот законът плува в морето от етика.“

Може би е най-добре да използваме активно онези начинаещи и бълбукащи AI Legal двойни проверки и AI Ethics двойни проверки, ако искаме да запазим главите си над потенциално надвиснали тежки морета от кисел AI и мрачни системи без AI, които застрашават нашата безопасност .

Може да са спасителната жилетка на човечеството.

Източник: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- и-ай-закон/