Етика на изкуствения интелект Предпазливо оценяване дали предлагането на пристрастия на изкуствения интелект Търсенето на премии за улавяне и залавяне на етично порочни напълно автономни системи е благоразумно или безсмислено

Търси се: AI ловци на пристрастия.

Това може да е съвременна реклама, която ще започнете да виждате да изскача в каналите на социалните медии и да се появява в различни онлайн обяви за работа. Това е сравнително нова концепция или роля. Това носи със себе си противоречия. Някои пламенно вярващи твърдят, че това има голям смисъл и е трябвало да се случва през цялото време, докато други доста нервно си блъскат главата и не са толкова сигурни, че това е добра идея.

Същността на ролята се състои в извличане от AI на всякакви скрити пристрастия или вградени дискриминационни практики. На помощ идват нетърпеливите и като цяло някогашни AI ловци на пристрастия. Вероятно ще бъдат ловци на глави, разбиращи се в компютъра. Повече, надяваме се, потопен в дълбините на възможностите на AI.

Имате оръжие, ще пътувате и можете чрез AI-квалифицирана проницателна стрелба да успеете да разобличите тези неприятни и неблагоприятни пристрастия на AI.

Това повдига куп трънливи въпроси относно чувствителността на преследването на такава тактика, когато става въпрос за откриване на пристрастия на AI. Както ще обсъдя веднага, моля, знайте, че появата на AI също доведе със себе си появата на пристрастия към AI. Торент от AI пристрастия. За моето текущо и обширно отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Как да открием, че дадена AI система има пристрастия?

Можете да поверите разработчиците на AI, които са създали AI, да направят това. Работата е там, че те може да са толкова затънали в пристрастия, че самите те не могат да разпознаят пристрастията в своя измислен ИИ. Всичко им изглежда добре. Или може да са толкова развълнувани от ИИ и да изпитват чувство на самочувствие за него, че да се наложи след това да хвърлят критичен поглед, за да го изследват за пристрастия, би било трудно и наистина потискащо. Много други подобни причини може да изглеждат подкопаващи разработчиците на AI да поемат тази задача, включително липса на умения да разберат вградените пристрастия, липса на време в проекта за това и т.н.

Добре, така че наемете външни консултанти, които да свършат мръсната работа вместо вас. Оказва се, че консултантите с удоволствие ще проверят вашия AI за пристрастия, като ви таксуват доста стотинки, за да го направите (много и много стотинки). Осъзнайте, че трябва да платите за тях, за да се справят с вашата AI система. След това трябва да ги накарате да ровят наоколо, което може да отнеме неизброим брой скъпоструващи часове. Използването на консултанти е опция, ако имате бюджет за това.

В потенциалната „пропаст“ за това как да открием тези коварни пристрастия на AI идват героичните и смели ловци на глави за пристрастията на AI.

Обикновено не им плащате предварително. Те се опитват да открият пристрастията на ИИ в собственото си време и трябва да плащат собствените си сметки, докато го правят. Само ако успешно открият пристрастия, им се плаща. Предполагам, че можете лесно да твърдите, че с подходящ начин на мислене това е конвенционалното определение за ловец на глави. Получавайте пари, ако успеете. Не получавайте заплащане, ако не сте успешни. Точка, край на историята.

Програмите за награди са съществували поне от времето на римляните и следователно можем да предположим, че те вършат работа, като успешно са се запазили като практика през всичките тези години.

Ето една завладяваща историческа любопитна информация за вас. Съобщава се, че публикувано съобщение по време на Римската империя в град Помпей обяви, че са необходими ловци на глави, за да намерят меден съд, изчезнал от малък магазин. Наградата за възстановяването на медния съд беше внушителна награда от шестдесет и пет бронзови монети. Съжаляваме да кажем, че не знаем дали някой ловец на глави е намерил медния съд и е взел бронзовите монети, но знаем, че ловът на глави със сигурност е продължил от онези древни времена.

В по-съвременни времена може би сте наясно, че през 1980-те години на миналия век имаше някои забележителни награди, предлагани за намиране на компютърни бъгове или грешки в готови софтуерни пакети, а след това през 1990-те Netscape подчертано предложи награда за намиране на бъгове в техния уеб браузър (превръщайки се в една от най-известните фирми от онзи ден, направили това). Google и Facebook избраха лов на глави за грешки, започвайки съответно през 2010 г. и 2013 г. Няколко години по-късно, през 2016 г., дори Министерството на отбраната на САЩ (DoD) се включи в акта, като организира награда за „Хакнете Пентагона“ (имайте предвид, че публично фокусираната награда беше за грешки, открити в различни уебсайтове, свързани с Министерството на отбраната, а не в отбранителни критични за мисията системи).

Нека се задълбочим в темата за наградите за грешки. Осъзнавам, че основно се стремя да говоря за пристрастията на ИИ при лова на глави в тази дискусия, но има някои доста уместни паралели с арената за награди за грешки.

Някои са очевидно озадачени, че всяка фирма би искала да предложи премия за намиране на грешки (или, в този случай, отклонения от AI) в техните системи.

На пръв поглед това изглежда като стратегия „вие го питате“. Ако уведомите света, че приветствате онези, които може да се опитат да намерят дупки във вашия софтуер, изглежда равносилно да кажете на крадците да продължат и да се опитат да проникнат в къщата ви. Дори и вече да вярвате, че имате доста добра алармена система за крадци и че никой не би трябвало да може да влезе в защитения ви дом, представете си да помолите и наистина да умолявате крадците да дойдат до мястото ви на пребиваване и да видят дали могат разбийте го. О, неприятностите, които сами си тъчем.

Същото може да се каже и за искането на ловци на глави да намерят пристрастия във вашия AI.

Първо, това може би означава, че вече вярвате или дори напълно знаете, че вашият AI наистина има пристрастия. Това е шокиращо откровено подразбиращо се признание, което малцина биха искали да направят и което потенциално може да има обратен ефект.

Второ, не знаете със сигурност какво могат да направят тези ловци на глави. Те биха могли да изберат да кажат на целия свят, че са открили пристрастия във вашия AI. Човек предполага, че това може да загуби получаването на наградата, въпреки че някои може да се насладят на вниманието или да се стремят да укрепят статута си за получаване на консултантски концерти и други възможности за генериране на приходи. Може би може да е напълно алтруистично. Това може да е форма на AI активизъм. Мога да продължа.

Трето, може да има подъл обрат в цялата афера. Ловец на глави, който твърди, че търси AI пристрастия, може дяволски да рови наоколо, за да намери начини да атакува вашата AI система. Цялото нещо е шарада в крайна сметка да се предприеме тежка кибератака. Може би сте предположили, че се опитват да помогнат, докато в сърцата си държат грешно. Тъжно, но възможно.

Четвърто, можем да се изкривим още по-хитро по този въпрос. Ловец на глави открива някои неудобни и потенциално предизвикващи съдебни дела предубеждения към ИИ. Наградата е някаква сума в долари, която ще наречем X. Вместо да поиска наградата, ловецът на глави прави един вид странна провокация с ransomware. Ако платите на ловеца на глави сума десет пъти X или може би до небето, те ще ви кажат за пристрастията на AI. Имате време до неделя вечер в полунощ да отговорите. След този момент отклоненията на AI ще бъдат разкрити, за да могат всички да ги видят. Да, подло затруднение, в което се намираш.

Пето, най-новите са онези така наречени кибермошеници „хакване за връщане“, които след като са откраднали куп онлайн пари, решават да се покаят и да върнат част от незаконно спечелената плячка, която са заграбили. Компанията, която получава парите си частично върнати, след това е готова да разгледа останалата открадната сума като награда след факта, възнаградена на крадците. Изглежда, че всички „печелят“, тъй като по-голямата част от средствата се връщат, а междувременно кибермошениците не се преследват законно, плюс получават пиратската награда за зареждане. Дали това е благоразумно или коварно увековечаване на неправомерни действия?

Осъзнавам, че някои от вас може да казват, че никой не трябва да пуска AI, който има някакви пристрастия. Това изглежда ще реши цялата тази дилема дали да се използват ловци на глави с пристрастия на AI или не. Просто не се поставяйте в ситуация на награда. Уверете се, че вашите AI разработчици правят правилното нещо и не позволяват AI пристрастия в техните AI системи. Може би използвайте консултанти, за да направите двойна проверка. По същество направете всичко, което трябва, за да избегнете изобщо да мислите или да помолите онези ловци на глави, пристрастни към AI, да дойдат на масата.

Да, това би изглеждало напълно разумно. Проблемът е, че е и малко замечтан. Сложността на много AI системи е толкова голяма, че опитът да се гарантира, че няма да се появи нито една унция отклонения от AI, ще бъде трудно да се направи. Освен това, някои AI системи са създадени нарочно, за да се коригират и „учат“, докато вървят напред. Това означава, че в някакъв бъдещ момент изкуственият интелект, който сте измислили, който нека се преструваме, че първоначално е чисто чист и без пристрастия, може да гравитира към въплъщаване на пристрастия (нямам предвид това по антропоморфен начин, както ще обясня по-нататък, докато продължете по тази тема).

Тези, които предпочитат лова на глави за софтуерни грешки, са склонни да твърдят, че има смисъл да се предлагат такива награди. Можем да разгледаме тяхната обосновка и да видим дали тя се отнася и за сферата на пристрастията на ИИ.

Поддръжниците на наградите за грешки подчертават, че вместо да се опитват да се преструват, че няма дупки във вашата система, защо не насърчат откриването на дупки, като го правят по „контролиран“ начин? За разлика от това, без такова усилие за награда, можете просто да се надявате и да се молите, че случайно никой няма да намери дупка, но ако вместо това предлагате награда и казвате на тези, които открият дупка, че ще бъдат възнаградени, тя предлага шанс след това да подкрепите дупката сами и след това да попречите на другите да я намерят тайно в някакъв по-късен момент.

Същото може да се каже и в случай на използване на пристрастия на AI. Ако предложите достатъчна награда, да се надяваме, че ловците на глави ще обърнат вниманието ви на откриването на пристрастия към ИИ. След това можете да се справите с пристрастията на AI по относително тих и премерен начин. Това може да предотврати много по-голям и обезсърчителен проблем по-късно, а именно някой друг да открие отклонения от ИИ във вашия ИИ и да крещи за това до небесата.

Като цяло фирма, която желае да активира усилия за лов на бъгове, ще въведе Политика за разкриване на уязвимости (VDP). VDP посочва как бъговете трябва да бъдат открити и докладвани на фирмата, заедно с това как наградата или наградата ще бъдат предоставени на ловеца. Обикновено VDP ще изисква ловецът да подпише Споразумение за неразкриване на информация (NDA), така че да не разкрива на другите какво е намерил.

Идеята за използване на NDA с ​​ловци на глави има някои противоречия. Въпреки че може би има смисъл за компанията, предлагаща премията, да иска да запази мълчание за откритите експозиции, също така се казва, че задушава цялостната осведоменост за подобни грешки. Предполага се, че ако се позволи да се говори за софтуерни грешки, това потенциално би подпомогнало безопасността на други системи в други фирми, които след това биха засилили своите експозиции. Някои ловци на глави няма да подпишат NDA, отчасти поради общественото желание и отчасти поради опит да запазят собствената си самоличност скрита. Имайте предвид също, че аспектът на NDA обикновено не възниква, докато ловецът не заяви, че е открил грешка, вместо да го изисква предварително.

Някои VDP постановяват, че NDA е само за ограничен период от време, което позволява на фирмата първо да намери решение на очевидната дупка и след това да даде възможност за по-широко разкриване за нея. След като дупката бъде запушена, фирмата позволява разхлабване на NDA, така че останалият свят да може да разбере за грешката. Съобщава се, че типичното време за разрешаване на бъгове, търсени за глави, е около 15-20 дни, когато фирма иска да го запуши веднага, докато в други случаи може да се простира до 60-80 дни. По отношение на плащането на ловеца на глави, така нареченото време за плащане, след като дупката е била потвърдена като действително съществуваща, според съобщенията плащанията на глави обикновено са в рамките на около 15-20 дни за по-малките случаи и около 50-60 дни за по-големите случаи (това са постоянно променящи се индикации в индустрията и се споменават само като илюстрация).

Трябва ли ловците на глави, предубедени от AI, също да бъдат помолени да участват в VDP и да се справят с NDA?

Можете да получите да и не на този въпрос. Да, някои фирми трябва да тръгнат по този път. Не, не е задължително да изберете този път. Факторите включват размера и естеството на AI, потенциала на евентуални излагания на AI пристрастия и куп други етични, правни и бизнес съображения, които се налагат.

Бих могъл да добавя, че установяването на начинание за лов на глави за пристрастия на AI на вашия AI е много по-сложна задача, отколкото бихте предположили на пръв поглед.

Ще започнем с огромната възможност да бъдете затрупани от ловци на глави, склонни към AI.

Точно сега ще ви бъде трудно да намерите много хора, които биха имали такава телефонна карта. Няма много наоколо. Това са дните на Дивия запад в това отношение. Но ако идеята за пристрастията на ИИ при лова на глави се наложи, особено когато наградите са изобилни и богато възнаграждаващи, можете да се обзаложите, че всеки ще се потопи в басейна за лов на пристрастия.

Искате ли всякакви изцепки, преследващи AI пристрастия във вашата AI система? Ще получите някои участници, които всъщност са експерти в този вид неща. Ще получите други играчи, които са аматьори и може да направят бъркотия или да викат вълци. Следващото нещо, което знаете, е, че всеки, който може да напише „Изкуствен интелект“, ще дойде да копае във вашата златна мина на AI система за тези скъпоценни самородно злато с пристрастия към AI. Златната треска започва. Това може да не е добре за вас.

Ще трябва да разгледате внимателно заявките на ловците на глави. Ще има много „шум“ в докладваните твърдения, в смисъл, че много от твърдяните пристрастия на ИИ не съществуват, въпреки че ловецът на глави настоява, че са открили някои. Представете си колко труд ще е необходим на вашите собствени екипи с изкуствен интелект, за да проучат исканията за награди, да проучат валидността на всяко от тях и след това потенциално да се движат напред-назад с ловеца на глави относно това дали златото е открито или не.

Някои биха казали, че това е още една причина да направите всичко сами. Може неизбежно да откриете, че наградата е повече неприятности, отколкото си заслужава.

Ето още един въпрос за размисъл. Как ловците на глави ще разберат как изглежда пристрастието към AI? По същество, без някакво подобие на това, което трябва да се търси, всяка лъскава скала може да се твърди, че демонстрира пристрастия на AI във възприеманата златна мина с AI, която се изкопава.

Да предположим, че в дните на Стария Запад сте предложили награда за залавянето на Били Хлапето (известен разбойник). Ако сте го направили и не сте включили снимка на това как изглежда Били, представете си броя на ловците на глави, които могат да завлекат в офиса на шерифа някой, за когото се надяват или смятат, че е Били Хлапето. Може да бъдете наводнени с фалшиви Били. Това е лошо, тъй като вероятно ще трябва да разгледате всеки един, да зададете изпитателни въпроси и да се опитате да установите дали човекът наистина е бил Били или не.

Въпросът е, че за да настроите усилието за награда за пристрастия към AI, би било разумно да опитате и да изясните от какво смятате, че се състоят пристрастията към AI. Това изисква калибриране като Златокоска. Не искате да бъдете толкова ограничени, че ловците на глави да пренебрегнат пристрастията на ИИ само защото не се вписват в определената от вас дефиниция, нито пък искате те да викат „Еврика!“ на всяка хапка от пристрастието на AI, която случайно открият.

Ще ви е необходим точният баланс на Златокоска относно това, от което се състоят пристрастията на AI и по този начин да предоставите за предпочитане ясни указания за това.

Голяма част от този AI предразполага към лов на глави ще бъде фокусиран върху базирани на AI системи за машинно обучение (ML) и дълбоко обучение (DL). Това има смисъл, тъй като разпространението на ML/DL нараства, плюс това изглежда има някои от най-вероятните предизвикателства за обхващане на ненужни пристрастия на AI.

Тези изследователи идентифицират колко значими могат да бъдат усилията за лов на глави, които AI предразполага, особено в контекста на ML/DL: „С течение на времето общностите за софтуер и сигурност са разработили „награди за грешки“ в опит да обърнат подобна динамика между разработчиците на системи и техните критици (или хакери) към по-интерактивни и продуктивни цели. Надеждата е, че чрез умишлено приканване на външни страни да намерят софтуерни или хардуерни грешки в техните системи и често предоставяне на парични стимули за това, ще се развие по-здрава и по-бързо реагираща екосистема. Естествено е общността на машинното обучение да обмисли подобен подход на „награда за пристрастия“ за навременното откриване и ремонт на модели и системи с пристрастия или друго нежелано поведение. Вместо да откриват грешки в софтуера, външни страни са поканени да открият отклонения - например (демографски или други) подгрупи от входни данни, на които обучен модел се представя по-слабо - и са възнаградени за това“ (в статията „Алгоритмична рамка за отклонения“ Bounties” от Айра Глобус-Харис, Майкъл Кърнс и Арън Рот).

В изследователската статия авторите очертават предложен подход към това какви видове пристрастия на ИИ могат да бъдат търсени от ловците на глави. Има също така индикация за това как да се оценят твърденията на ловците на глави, свързани с предполагаемите пристрастия на ИИ, открити така. Според моите по-ранни забележки тук, шансовете са, че ще получите измамни твърдения и ще трябва да отделите пристрастията на AI житото от плявата.

Преди да се впуснем в още малко месо и картофи относно дивите и вълнени съображения, които стоят в основата на лова на пристрастия от AI, нека установим някои допълнителни основи по дълбоко интегрални теми. Трябва накратко да се потопим в етиката на изкуствения интелект и особено появата на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка работят и извършват поддръжка на AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират ИИ, са обект на придържане към понятията за етиката на ИИ. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека сега се върнем към темата за лова на пристрастия с изкуствен интелект.

За тези от вас, които обмислят начинание за лов на глави с пристрастия към AI, ето препоръчаните от мен седем ключови стъпки за това как най-добре да продължите:

1) Оценява. Оценете пригодността на начинание за лов на глави с пристрастия към AI за вашите обстоятелства и според вашите AI системи

2) Дизайн. Създайте подходящ подход за лов на глави с пристрастия към AI

3) Прилагане. Внедрете и популяризирайте своите начинания за лов на глави с пристрастия към AI

4) Област. Поле AI предразполага към исканията за награди и обработете съответно

5) Фиксирайте. Коригирайте или коригирайте своя AI според тези открити излагания на AI пристрастия

6) Регулирайте. Коригирайте пристрастията на AI към лова на глави според нуждите

7) Да се ​​преустанови. Прекратете пристрастния лов на AI, когато вече не е необходим

В моята поредица от горни стъпки, имайте предвид, че споменавам, че вероятно ще искате да поправите или коригирате своя AI въз основа на установяване, че твърдяното отклонение от AI действително съществува във вашата AI система. Това има много смисъл. Почти сигурно бихте искали да подкрепите всички открити отклонения от AI. Помислете за правните (и етичните) последици, ако не го направите. Едно е да твърдите, че не сте знаели за съществуването на пристрастие към AI и следователно сте го позволили да съществува, докато много по-нестабилна е причината да имате в протокола, че сте били уведомени за пристрастие към AI и не сте направили нищо по въпроса.

Естеството и степента на корекцията или корекцията на AI, разбира се, ще зависят от това колко значителни са отклоненията на AI и колко дълбоко са вкоренени проблемите. Ако имате късмет, може би скромно количество промени в AI ще коригират нещата. Другият потенциал е, че може да се наложи да направите цялостно пренаписване на AI. За ML/DL тип AI това може да изисква връщане към чертожната дъска и започване на чисто с изцяло нов набор от данни и пречистен ML/DL модел. Обсъждал съм появата на AI разрушаването или унищожаването на AI като потенциално правно средство за защита срещу неприятния AI, вж. връзката тук.

Един въпрос, върху който трябва да се замислите, е дали бихте искали ловците на глави евентуално да направят нещо повече от това просто да идентифицират съществуването на пристрастия към ИИ. Например, можете да подсладите наградата, като посочите, че предложените корекции също са добре дошли. Пристрастие към AI намерени от ловец на глави може да получи една посочена награда или награда. Ако ловецът на глави може да предложи и жизнеспособна фиксира на пристрастията на AI, тогава те могат да получат допълнителна награда.

Някои твърдят, че това е твърде далече. Те казват, че трябва да държите ловците на глави за AI пристрастия изключително фокусирани върху намирането на AI пристрастия. Вие ще създадете куп нежелани неблагоприятни последици, като ги поканите да предложат корекции. Поддържайте нещата прости. Целта е да привлечете възможно най-много допълнителни очи към откриването на пристрастия на AI, така че да можете да решите какво да правите по-нататък. Не мътете водите.

Трънлив аспект, който трябва да бъде измислен, включва големината на възнаграждението или наградата за ловците на глави, които наистина открият пристрастията на AI. Искате печалбата да бъде демонстративна. Без достатъчно висока награда няма да получите много ловци на глави или те няма да са особено нетърпеливи да търсят пристрастията на AI във вашите AI системи. Вместо това те биха могли да се съсредоточат върху други начинания за награди за пристрастия към AI.

Освен това, както споменахме, вие искате да опитате и да потиснете желанието на ловците на глави да превърнат откритията си в други форми на злато. Ако наградата изглежда мижава, това може да подразни ловците на глави да търсят други по-високи печалби. Те биха могли да предприемат подход към вас с ransomware. Те могат да заявят, че имат сочни пристрастия към AI, за които конкурентът би искал да знае и би могъл да ги използва срещу вашата фирма, като рекламират, че пристрастията към AI съществуват във вашия AI. По този начин те продават откритите пристрастия на AI на предложилия най-висока цена. И така нататък.

Човек предполага, че ако зададете наградата на изключително висок диапазон, вие също искате потенциални проблеми. Това може да привлече всякакви луди ловци на глави. Те от своя страна може да залеят социалните медии с мъгляви твърдения, че са открили множество пристрастия към ИИ, правейки това за собствената си самореклама и без всъщност да са разкрили някакви пристрастия към ИИ. В известен смисъл, вашата повишена награда неволно осветява вашия AI и подтиква множество груби молци да бъдат съответно пагубно привлечени от светещия светлинен лъч.

Друго съображение включва достъпността до вашия AI.

За да се даде възможност за лов на глави с изкуствен интелект, ловците на глави трябва да получат достатъчно достъп до вашия изкуствен интелект. Те няма да имат много късмет в намирането на отклонения от AI, ако са напълно блокирани. Но не искате да се отказвате от защитите си за киберсигурност, тъй като това може напълно да компрометира вашата AI система.

Можете да опитате да накарате ловците на глави да подпишат различни правно обвързващи декларации и след това да им предоставите необходимия достъп. Някои ловци на глави няма да харесат този тип подход. Тяхната гледна точка е, че те ще правят само всичко, което всеки публично достъпен и отворен път позволява. Те са свободни индивидуалисти, така да се каже, и не обичат да бъдат оседлани, така да се каже. Ако ги накарате да поставят подписа си върху смущаващи правни документи, много от тях ще избегнат търсенето на пристрастия към ИИ във вашия ИИ. Или може да се раздразнят от законната ви ръкавица и да решат, че ще видят какво могат да намерят чрез обществени средства, правейки го с може би рязкото желание да ви покажат колко уязвими сте всъщност.

Имам още един ъгъл, който може да ви замае главата.

Ловец на глави, разбиращ AI, може да реши да създаде AI система, която може да изследва внимателно вашия AI и евентуално да открие отклонения в AI във вашия AI. Това е производителят на инструменти, който избира да направи инструмент, който да свърши работата, вместо сам да извършва ръчен труд. Вместо да проучват усърдно вашия AI, ловецът на глави с AI прекарва времето си в създаване на AI инструмент, който прави същото. След това те използват AI инструмента на вашия AI. Красотата също е, че те вероятно могат да използват повторно AI инструмента за всеки друг, който също предлага възможност за лов на глави на съответния им AI.

Знам какво вероятно си мислите. Ако може да се измисли AI инструмент, който да изследва AI за пристрастия, производителят на AI, който се изследва внимателно за AI пристрастия, трябва или да създаде такъв AI инструмент, или да купи такъв за собствена употреба. На теория тогава не е нужно да се борят с целия карнавал на ловците на глави, като начало. Просто използвайте AI, за да откриете техните пристрастия към AI.

Да, това е нещо, което можете да очаквате, че ще се появи постепенно. Междувременно основата на тези усилия вероятно ще се състои от разработчиците на AI, които правят лов на глави. Те могат да използват различни инструменти, за да подпомогнат усилията си, но в близко бъдеще е малко вероятно просто безсмислено да настроят инструмента за изкуствен интелект на автоматичен режим и да подремнат, така че инструментът да извърши цялото търсене на пристрастията на изкуствения интелект вместо тях.

Все още не сме там.

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на базирани на изкуствен интелект истински самоуправляващи се автомобили осветлява нещо относно използването на лов на глави с пристрастия към изкуствен интелект и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква човешки водач да споделя съвместно усилието за шофиране, обикновено се счита за Ниво 2 или Ниво 3. Колите, които споделят съвместно задачата за шофиране, се описват като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​​​ADAADA
S (усъвършенствани системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и лов на глави за пристрастия към AI

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

В моите колони вече обсъдих надълго и нашироко използването на ориентирани към грешки ловци на глави в областта на автономните превозни средства и самоуправляващите се автомобили. Този подход наистина се прилага в тази ниша. Има обичайни дебати за това дали това е добра идея или не. Усилията обикновено са били ограничени, често се пазят относително тихо.

Подобен дискурс може да възникне, когато фокусът се измести към търсене на пристрастия на AI, вместо към търсене на системни грешки сами по себе си. Някои предполагат, че е проклето, ако го направите, проклето, ако не го направите.

Ето защо.

Първо, за да бъде ясно, има много начини, по които автономните превозни средства и самоуправляващите се автомобили ще бъдат обект на пристрастия, съдържащи AI, вижте моето отразяване на връзката тук намлява връзката тук, само за да назовем няколко. Производителите на автомобили и фирмите за самоуправляващи се автомобили изглежда разумно да се опитат да предотвратят появата на тези AI пристрастия в техните AI системи. Правната и етична буря срещу такива фирми несъмнено ще бъде интензивна.

Подходящ подход ли е използването на изкуствен интелект за лов на глави в този специфичен контекст?

Един от отговорите е, че да, това ще бъде удобно и ще предостави изобилие от „безплатни“ комплекти нови очи, за да се опитате да уловите всички вградени AI отклонения на AI самоуправляваща се кола или други подобни. Повечето от разработчиците на AI, създаващи самоуправляващи се автомобили, са заети да създават AI, който може безопасно да кара кола от точка А до точка Б. Те са заети с тази основна способност и нямат нито време, нито внимание към някакви пристрастия на AI, които може да са някъде в техния AI.

Другият отговор е, че не, разрешаването на лов на глави за автономни превозни средства и самоуправляващи се коли на каквато и да е основа, независимо дали за грешки или пристрастия към AI, просто трябва да се избягва яростно. Аргументът е, че тези превозни средства и техният AI са от калибър на живот или смърт. Забъркването с AI по какъвто и да е начин може да бъде някак си пагубно за AI и да повлияе на работата на системата за управление на AI.

Контрааргумент на последната точка е, че се предполага, че ловците на глави не са в състояние да променят ИИ, който изследват. По този начин няма опасност те да се забъркват с AI и да накарат AI в този контекст внезапно да се превърне в луда система за управление на AI. Ловците на глави имат достъп само за четене. Да им позволим да отидат по-далеч би било голяма глупост и огромна грешка.

Контрааргументът на този контрааргумент е, че като позволите и насърчите ловците на глави да изследват вашия AI, целият въпрос става опасен. Тези ловци на глави може да измислят начини да използват всички открити грешки или пристрастия. Тези подвизи от своя страна може да са за измамни цели. Би било по-добре да не каните „крадци“ в дома си, така да се каже. След като те извадят ставата, в крайна сметка ще имате куп проблеми.

За тези, които имат системи с изкуствен интелект с мащаб, по-малък от "живот или смърт", вярването е, че последиците от неуспешен набег на лов на глави са много по-малко рискови. Може би така. От друга страна, ако дадена фирма е вляла парите си в система с изкуствен интелект, която ловците на глави успяват да узурпират, можете да предположите, че щетите за репутацията и други потенциални щети все още ще навредят.

Няма безплатен обяд, когато става въпрос за лов на глави с пристрастия към AI.

Една бърза заключителна забележка за сега.

Когато прочутият разбойник Джеси Джеймс беше издирван по време на Стария Запад, беше отпечатан плакат „Търси се“, който предлагаше награда от 5,000 долара за залавянето му (с надпис „жив или мъртъв“). За онова време това беше доста огромна сума пари. Един от членовете на собствената му банда избра да застреля Джеси и да вземе наградата. Предполагам, че това показва колко ефективна може да бъде наградата.

Ще бъде ли използването на ловци на глави с пристрастия към AI нещо добро или лошо?

Ако решите да започнете опит за ловец на глави с изкуствен интелект, бих ви препоръчал да държите очите си широко отворени и да гледате през рамо през цялото време. Това е разумно за вас и вашия AI. Никога не знаеш какво може да се случи, включително това, че коварен ловец на глави по някакъв начин тайно вмъква AI отклонение във вашия AI и крещи на света, че са открили безскрупулно AI отклонение във вашия AI. Може би правейки това в нагъл и прекомерен опит да търсят наградата за награда, плюс да се провъзгласят за герой, който по същество получи прехваления Джеси Джеймс.

Като се замисля, един разумен ИИ вероятно няма да хареса тази идея за смущаваща разпоредба „жив или мъртъв“, може да се спекулира вяло.

Източник: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- етично-злите-напълно-автономни-системи-е-разумно-или-безполезно/