Етиката на изкуствения интелект е внимателна относно влошаването на асиметрията на изкуствения интелект на фона на това, че хората получават късия край на пръчката

Понякога сте на грешния край на клечката.

Този разговорен израз може да се приложи към понятието асиметрия.

Да, ще говоря за асиметрия. Както вероятно сте се сблъсквали в този преобърнат свят, в който живеем, има случаи, когато може да се окажете, че имате по-малко познания по въпрос, който е относително важен за вас. Това официално се нарича Информационна асиметрия.

Ключът е, че имате по-малко знания или информация, отколкото бихте искали да имате, плюс определено имате по-малко от другата страна, замесена в въпроса. Вие сте в значително неизгодно положение в сравнение с другата страна. Те знаят нещо, което вие не знаете. Те могат да използват това, което знаят, особено по отношение на това, което вие не знаете, и да вземат надмощие във всякакви груби обсъждания или преговори с вас.

Е, в града има ново момче, известно като AI асиметрия.

Тази последна крилата фраза се отнася до възможността да се изправите срещу някой, който е въоръжен с AI, докато вие не сте толкова въоръжени.

Те имат AI на тяхна страна, докато вие имате, добре, само вас. Нещата са едностранчиви. Вие сте в предполагаемо неизгодно положение. Другата страна ще може да прави кръгове около вас, тъй като е подсилена от AI. Това може да е в известната поговорка, че всичко е справедливо в любовта и войната (отдавнашна поговорка, измислена в Euphues от Джон Лили, 1578 г.), въпреки че динамиката и опасностите от асиметрията на ИИ повдигат предизвикателни въпроси, свързани с етичния ИИ. За моето текущо и обширно отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Преди да преминем към сферата на изкуствения интелект и неговите изобилни сложности по отношение на асиметрията на изкуствения интелект, нека първо проучим ежедневната редовна версия на обикновената стара информационна асиметрия. Това ще подготви сцената за навлизане в пословичния AI ново дете в блока.

Една кратка и целенасочено просветляваща история може да събуди апетита ви.

Онзи ден имах спукана гума по време на път и търсех бързо да намеря подходяща замяна, която можеше да се монтира веднага. Използвайки смартфона си, разгледах онлайн близките магазини за гуми, за да разбера разстоянието, което трябва да измина с моята спукана гума и дали има отворени магазини. Освен това направих бърза оценка на техните онлайн клиентски отзиви и се опитах да събера нещо полезно за това колко време са били в бизнеса и други фактори, които биха могли да покажат достойнството им.

След като се обадих в един от магазините за гуми, продавачът ми даде бърза оферта за цената на гумата и нейния монтаж. Гумата не беше точно това, което имах предвид, но служителят ме увери, че те ще бъдат единственият магазин в района, който може да свърши работата веднага. Според служителя, никой от другите близки магазини за гуми няма да разполага с такива гуми на склад и ще отнеме поне един ден на тези конкуренти да получат подходяща гума от някой полуотдалечен склад.

Бях в средата на информационна асиметрия.

Служителят твърди, че знае повече за местния статут на магазините за гуми и по-специално за типа гума, от която се нуждаех. Бях в район, през който само минавах и нямах никакви познания от първа ръка за магазините за гуми в този конкретен географски район. Доколкото знаех, служителят беше на място и ми казваше чистата истина.

Но така ли правеше чиновникът?

Може би да, може би не.

Възможно е служителят искрено да е повярвал на всичко, което ми беше предадено. За чиновника това беше истината. Или може би чиновникът разтягаше истината. Възможно е това, което се казва, да е вярно, въпреки че начинът, по който е изобразено, предполага, че е абсолютната и неопровержима истина. Разбира се, можеше да е и пълна глупост и продавачът просто да плати шилинг за магазина за гуми, за да привлече бизнеса ми. Може ли сочна комисионна да е била на линия?

Смея да кажа, че никой не обича да бъде в такава позиция на аутсайдер.

Залогът на ситуацията е жизненоважен фактор за значението на информационната асиметрия. Ако разглежданият въпрос е от естество на живот или смърт, да бъдеш в кучешката колиба и да разчиташ на другата страна за това, което знае или твърди, че знае, е схематична и крайно нежелана поза. Когато залозите са ниски , като например да поръчате вечерята си в ресторант и сървърът да ви каже, че рибното ястие е божествено, но никога не сте яли там преди и сте недостатъчно информирани, можете да се съгласите с тази малко информационна асиметрия без много тревога (аз да предположим също, че вие ​​също залагате, че сървърът няма да рискува да даде кисел съвет и да пропусне да получи приличен съвет).

Връщайки се към историята с износените гуми (игра на думи!), нямаше да имам незабавен начин да разбера дали служителят ми дава надеждни и информативни прозрения. Може би се чудите какво се е случило. Реших да се обадя на няколко от другите близки магазини за гуми.

Готови ли сте за това, което открих?

Всички останали магазини за гуми имаха желаната от мен гума на склад и нямаше да се опитват да ме убедят да взема друга гума (както се опита първият продавач). Те също можеха да свършат работата в същия срок като първия магазин за гуми, който случайно се обадих. На горе-долу същата цена.

От моя страна се получи желана въздишка на облекчение, уверявам ви.

По ирония на съдбата, според Закона на Мърфи за лошия късмет, първото място, с което се свързах, беше единственото, което изглежда беше навън за обяд, така да се каже. Радвам се, че потърсих повече информация. Това стеснява празнината в информационната асиметрия. Аплодирах себе си, че се придържах към оръжията си и не се присъединих към първото място, което извиках.

Като се има предвид това, имаше определени разходи, свързани с получаването на допълнителна информация. Направих приблизително четири обаждания, всяко от които отнемаше около петнадесет до двадесет минути, за да се извърша напълно. В този смисъл изразходвах около час и половина, докато само разбрах къде да закарам колата си. Ако веднага бях закарал колата си до това първо място, новата гума почти щеше да е на колата ми дотогава. От друга страна, почти сигурно по-късно щях да съжалявам за бързото решение, което взех, докато бях в подло обвързване с информационна асиметрия.

Понякога трябва да стиснете зъби и да приемете страховитата информационна асиметрия така, както идва. Просто се надявате, че каквото и решение да вземете, ще бъде достатъчно добро. Може да не е „перфектно“ решение и по-късно да съжалявате за направения избор. Другият ъгъл е, че бихте могли да опитате да подкрепите вашата страна на информационното уравнение, въпреки че това не е непременно безплатно и може също така да изяде ценно време, в зависимост от това дали ценното време е от съществено значение.

Сега, когато несъмнено сте успокоени да знаете, че колата ми работи добре с чисто новата си и правилна гума, мога да се прехвърля към появата на AI Asymmetry.

Помислете за AI история за горкото.

Търсите да получите кредит за жилище. Има онлайн анализатор на заявки за ипотечни кредити, който конкретна банка използва. Онлайн системата използва днешните усъвършенствани възможности на AI. Няма нужда да говорите с човешки агент по отпускане на заем. AI прави всичко.

Системата AI ви превежда през поредица от подкани. Вие прилежно попълвате формулярите и отговаряте на AI системата. Този AI е много бъбрив. Докато в миналото може да сте използвали конвенционална компютърно базирана система за формуляри, този вариант на AI е по-близък до взаимодействие с човешки агент. Не съвсем, но достатъчно, за да можете почти да започнете да вярвате, че човек е от другата страна на тази дейност.

След като направи всичко възможно да „обсъди“ вашата заявка с този AI, в крайна сметка той ви информира, че за съжаление заявката за заем не е одобрена. Някак ви разбира, че AI изглежда предлага извинение, сякаш AI искаше да одобри заема, но тези подли хора, които наблюдават банката, не позволяват на AI да го направи. За моето отразяване на това колко подвеждащи са тези видове предполагаеми извинения за AI, вижте връзката тук.

Нямате представа защо ви отказаха. AI не предлага никакво обяснение. Може би AI е направил грешка или е объркал изчисленията си. Още по-лошо, да предположим, че изкуственият интелект е използвал някои много съмнителни съображения като вашата раса или пол, когато взема решение за заема. Всичко, което знаете е, че изглежда сте си загубили времето и междувременно сте предали тон лични данни на AI и банката. Техният AI ви победи.

Това ще бъде обозначено като пример за AI асиметрия.

Ти беше срещу банката. Банката беше въоръжена с AI. Не сте били еднакво въоръжени. Имахте разума си и училището си за твърда мъдрост, но нямахте изкуствен интелект в задния си джоб. Ум срещу машина. За съжаление машината спечели в този случай.

какво да правиш

Първо, ние трябва на обществена основа да осъзнаем, че тази асиметрия на ИИ нараства и става почти повсеместна. Хората се сблъскват с ИИ във всички системи, с които ежедневно взаимодействаме. Понякога AI е единственият елемент, с който взаимодействаме, като например в този пример за искането за заем. В други случаи човек може да бъде в цикъла, който разчита на AI, за да им помогне при извършването на дадена услуга. За заема може банката да ви накара да говорите с човешки агент вместо да взаимодействате с AI, но за който човешкият агент използва компютърна система за достъп до AI, който насочва човешкия агент по време на процеса на искане на заем (и почти винаги сте сигурни, че човешкият агент ще действа така, сякаш е затворен, като трябва стриктно да прави каквото ИИ „им каже да направи“).

Така или иначе, AI все още е в микса.

Второ, трябва да се опитаме да гарантираме, че AI Asymmetry се извършва най-малкото на етична основа на AI.

Позволете ми да обясня тази на пръв поглед странна забележка. Виждате ли, ако можем да бъдем донякъде сигурни, че ИИ действа по етичен начин, може да имаме известна утеха за асиметрията, която се играе. На донякъде аналогична, но също свободна основа, бихте могли да кажете, че ако моето взаимодействие с първия служител в магазина за гуми имаше някои строги етични насоки на място и се прилагаха, може би нямаше да ми разкажат историята, която ми разказаха, или поне аз може би не трябваше веднага да търся да открия дали ми се разказва голяма история.

Ще обясня повече за AI Ethics след малко.

Трето, трябва да търсим начини за намаляване на асиметрията на ИИ. Ако сте имали AI, който е бил на ваша страна, стремейки се да бъде ваш треньор или защитник, може да сте в състояние да използвате този AI, за да направите контраудар с другия AI, с който ще се сблъскате. Както се казва, понякога има много смисъл да се бориш с огън с огън.

Преди да се впуснем в още малко месо и картофи относно дивите и вълнисти съображения, лежащи в основата на AI Asymmetry, нека установим някои допълнителни основи по дълбоко важни теми. Трябва накратко да се потопим в етиката на изкуствения интелект и особено появата на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка извършват и поддържат AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират AI, подлежат на придържане към понятията за етика на AI. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека се върнем към нашия фокус върху AI Asymmetry.

Бързо обобщение на моите гореспоменати три идентифицирани препоръки е следното:

1) Осъзнайте, че AI Asymmetry съществува и се разраства

2) Стремете се да гарантирате, че асиметрията на AI е ограничена от етиката на AI

3) Опитайте се да се борите с AI Asymmetry, като се въоръжите с AI

Ще разгледаме по-подробно последната точка на борбата с огъня с огън.

Представете си, че когато търсите да получите заем, сте имали AI, който работи от ваша страна на усилията. Това може да е базирано на AI приложение на вашия смартфон, което е създадено за получаване на заеми. Това не е приложение от някоя от банките и вместо това е независимо създадено да действа от ваше име. Описах подробно тези видове приложения в моята книга за базирани на AI ботове ангел-пазител, вижте връзката тук.

Когато кандидатствате за заем, можете да се обърнете към това приложение, докато преминавате през процеса на кандидатстване от другия AI. Тези две AI системи са различни и напълно отделени една от друга. AI на вашия смартфон е „обучен“ да знае всички трикове, използвани от другия AI. Като такива, отговорите, които въвеждате в AI на банката, ще се основават на това, което вашият AI ви съветва.

Друг вариант се състои в това вашият AI да отговаря на въпросите, зададени от другия AI. Доколкото другият AI може да установи, вие въвеждате отговорите. Вместо това може просто да наблюдавате как се осъществяват взаимодействията между двете борещи се AI системи. Това ви позволява да видите какво предлага вашият AI. Освен това можете потенциално да коригирате своя AI в зависимост от това дали сте доволни от това, което вашият AI прави от ваше име.

Предвидих, че всички ние постепенно ще се въоръжим с AI, който ще бъде на наша страна в тези ситуации на асиметрия на AI.

Нека помислим как ще стане това.

Това са крайъгълните въздействия върху условието за асиметрия на AI, които изложих:

  • Изравняване на AI асиметрията във ваша полза (извежда ви нагоре, надявайки се да достигнете равни нива)
  • Стимулиране на AI Asymmetry във ваша полза (издигайки ви до предимство, когато вече сте равни)
  • Увеличаване на AI Asymmetry за ваша изключителна полза (получаване на по-голямо предимство, когато вече има предимство)
  • Непреднамерено подбиване на AI асиметрията във ваша немилост (когато сте имали предварително съществуващо предимство и AI неволно ви е дръпнал надолу)

Време е да се потопите дълбоко в тези интригуващи възможности.

Изравняване на AI асиметрията във ваша полза

Изравняването на AI асиметрията е най-очевидното и най-често обсъждано съображение, а именно, че бихте се въоръжили с AI, за да се опитате да се изравните с AI, използван от другата страна в разглеждания въпрос. Настройката за AI Asymmetry започна с вас в определено неизгодно положение. Нямаше AI в ъгъла си. Ти беше от ниската страна на нещата. Другата страна имаше AI и те бяха на по-високо ниво.

По този начин вие мъдро се въоръжихте с AI, който ще има за цел да постави вас и другия AI при равни условия.

Един важен и може би изненадващ нюанс, който трябва да имате предвид, е, че не винаги ще бъде така, че използваните AI системи ще балансират една спрямо друга равномерно. Може да се въоръжите с AI, който е, да кажем, по-малко мощен от AI, който използва другата страна. В този случай сте увеличили позицията си надолу, за щастие, въпреки че сега не сте напълно равни с другата страна и нейния AI.

Ето защо наричам това изравняване на AI асиметрията. Може да сте в състояние да стесните празнината, но не и да я затворите напълно. Крайната цел би била да използвате AI от ваша страна, което ще ви доведе до напълно равна поза. Работата е там, че това може или не може да е осъществимо. Другата страна може да има наистина скъп изкуствен интелект, а вие се опитвате да се конкурирате с икономичната версия на изкуствения интелект за майка и поп.

Не всички AI са еднакви.

Стимулиране на AI асиметрия във ваша полза

Това обстоятелство не е нещо, което се обсъжда много днес, отчасти защото е рядкост в момента. Някой ден това ще бъде нещо обичайно. Идеята е, че да предположим, че сте без AI и въпреки това сте на равна основа със страната, която има AI.

Добре за теб.

Хората наистина имат акъла си.

Но може да искате да спечелите предимство пред другата страна. Въоръжаването с AI ви отвежда до по-високото ниво. Вече разполагате с разума и надеждния си AI. Спечелихте предимство, което вероятно ще надделее над AI на другата страна.

Увеличаване на AI асиметрия за ваша изключителна полза

Използвайки подобна логика като аспекта на стимулиране на AI Asymmetry от ваше име, да предположим, че вече сте над възможностите на другата страна, която използва AI. Следователно, не започвате от еднаква поза. За щастие вече сте от горната страна.

Все пак може да искате да си осигурите още по-голямо предимство. Затова се въоръжавате с AI. Това издига главата и раменете ви над другата страна.

Неволно подбиване на асиметрията на AI във ваша немилост

Съмнявам се, че искате да чуете за тази възможност. Моля, осъзнайте, че работата с AI не е само рози и сладоледени торти.

Може да се окаже, че когато се въоръжите с AI, вие всъщност подбивате себе си. Ако вече сте били по-малко от AI на другата страна, сега сте в по-дълбока дупка. Ако сте били при равни условия, сега сте в неравностойно положение. Ако сте били над другата страна, сега сте равни или под нея.

Как е възможно това да се случи?

Може да се шокирате, като си помислите, че AI, който приемате, ще ви подведе. Това лесно може да се случи. Само защото имате AI в ъгъла си, не означава, че е полезен. Може да използвате AI и той предоставя съвети, които не смятате непременно за подходящи, но все пак решавате да го използвате. Вашата логика по онова време беше, че след като сте си направили труда да получите AI, може и да разчитате на него.

AI, който използвате, може да е дефектен. Или може да е лошо измислено. Има куп причини, поради които AI може да ви дава несигурни съвети. Онези, които сляпо приемат всичко, което AI каже да направят, са длъжни да се окажат в свят на нараняване. Отразил съм такива затруднения в моята колона, като напр връзката тук.

Изводът е, че няма абсолютно никаква гаранция, че само защото сте се въоръжили с AI, вие ще спечелите в играта AI Asymmetry.

Може да постигнете равни условия. Може да спечелите предимство. И, за съжаление, трябва да бъдете предпазливи, тъй като е възможно да потънете надолу, когато сте въоръжени с AI.

До известна степен това е причината етиката на ИИ и етичният ИИ да е толкова важна тема. Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на етиката на AI нагласата и това да бъде интегрирано в разработването и внедряването на AI е жизненоважно за създаването на подходящ AI.

Освен използването на етиката на ИИ, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Всъщност те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни предимства за обществото. Вижте например моето отразяване на връзката тук намлява връзката тук.

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на базирани на изкуствен интелект истински самоуправляващи се автомобили осветлява нещо относно асиметрията на изкуствения интелект и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и AI асиметрия

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

Нека скицираме сценарий, който демонстрира AI Asymmetry.

Обмислете привидно несъществения въпрос къде ще се движат самоуправляващите се автомобили, за да вземат пътници. Това изглежда като изключително безобидна тема.

Първо приемете, че самоуправляващите се автомобили с изкуствен интелект ще се движат из цели градове. Всеки, който иска да се вози в самоуправляваща се кола, по същество има равен шанс да вземе такава. Постепенно изкуственият интелект започва да държи самоуправляващите се автомобили в роуминг само в една част на града. Тази секция е по-голяма печалба и изкуственият интелект е програмиран да опитва и максимизиране приходи като част от употребата в общността като цяло (това подчертава начина на мислене, който стои в основата на оптимизацията, а именно фокусиране върху само един конкретен показател и пренебрегване на други решаващи фактори в процеса).

Членовете на общността в бедните части на града се оказва по-малко вероятно да могат да се возят от самоуправляваща се кола. Това е така, защото самоуправляващите се коли бяха по-далече и се движеха в по-доходната част на града. Когато постъпи заявка от далечна част на града, всяка друга заявка от по-близко място ще получи по-висок приоритет. В крайна сметка възможността за получаване на самоуправляваща се кола на всяко място, различно от по-богатата част на града, е почти невъзможна, което е отчайващо за тези, които са живели в тези райони, които сега са изчерпани с ресурси.

Излизат прехвалените мечти за мобилност за всички, които се предполага, че самоуправляващите се автомобили трябва да оживят.

Бихте могли да твърдите, че ИИ като цяло се е спрял на форма на статистическа и изчислителна пристрастност, подобна на форма на прокси дискриминация (също често наричана непряка дискриминация). Осъзнайте, че AI не е програмиран да избягва тези по-бедни квартали. Нека изясним това в този случай. Не, той беше създаден вместо това просто да оптимизира приходите, привидно приемлива цел, но това беше направено без разработчиците на AI да обмислят други потенциални разклонения. Тази оптимизация на свой ред несъзнателно и неизбежно доведе до нежелан резултат.

Ако бяха включили съображенията за етиката на изкуствения интелект като част от техния начин на мислене за оптимизация, те може би щяха да разберат предварително, че освен ако не създадоха изкуствения интелект да се справя с този вид свръхоразмеряване само на един показател, можеше да предотвратят подобни мрачни резултати. За повече информация относно тези типове проблеми, които широкото приемане на автономни превозни средства и самоуправляващи се автомобили вероятно ще предизвика, вижте моето отразяване на тази връзка тук, описващ ръководено от Харвард проучване, на което съм съавтор по тези теми.

Във всеки случай приемете, че конят вече е излязъл от обора и ситуацията не е незабавно податлива на всеобхватни решения.

Какво могат да направят онези, които искат да използват тези самоуправляващи се коли?

Най-очевидният подход би бил да работим с лидерите на общността, за да накараме производителя на автомобили или технологичната фирма за самостоятелно управление да преразгледат начина, по който са създали AI. Може би оказване на натиск върху каквито и да било лицензи или разрешителни, които са били дадени за внедряването на тези самоуправляващи се автомобили в този град или населено място. Това вероятно са жизнеспособни средства за постигане на положителни промени, въпреки че може да отнеме известно време, преди тези усилия да дадат резултат.

Друг ъгъл би бил да се въоръжите с AI.

Представете си, че някой умело е създал приложение, базирано на изкуствен интелект, което работи на вашия смартфон и се справя с изкуствения интелект на автомобилния производител или оператора на автопарка, който приема заявки за превози. Възможно е изкуственият интелект, който използвате, да използва ключови елементи от другия изкуствен интелект, така че заявка за самоуправляваща се кола от вас да получи повишен приоритет. Обърнете внимание, че не предполагам, че се случва нещо незаконно, а вместо това AI от ваша страна е разработен въз основа на открити „функции“ или дори вратички в другия AI.

Заключение

Историята за наглото отвръщане на удара срещу ИИ на оператора на флота от самоуправляващи се автомобили чрез въоръжаване с ИИ поражда допълнителни спорове и съображения относно етиката на ИИ.

Например:

  • Ако един човек може да използва AI, за да му даде предимство пред AI на някаква друга система, докъде може да стигне това по отношение на евентуално преминаване на границите на етиката на AI (убеждавам самоуправляващите се коли да дойдат при мен и моите приятели, с изключение на всички останали)?
  • Освен това има ли някакво подобие на съображение от етиката на ИИ, че ако някой знае или е въоръжен с ИИ, за да се бие с друг ИИ, трябва ли останалите хора, които нямат този балансиращ ИИ, да бъдат по някакъв начин предупредени за ИИ и да могат да се въоръжат съответно също?

В крайна сметка всичко това ни отвежда в бъдеще, което изглежда зловещо, състоящо се от надпревара във въоръжаването с ИИ. Кой ще има AI, от който се нуждае, за да се придвижва и да оцелее и кой не? Винаги ли ще има още един AI, който ще се появи и ще предизвика нуждата от балансиращ AI?

Карл Сейгън, уважаваният учен, предостави тази мъдра мъдрост относно особено катастрофалните надпревари във въоръжаването: „Надпреварата в ядрените оръжия е като двама заклети врагове, застанали до кръста в бензин, единият с три кибритени клечки, другият с пет.“

Трябва решително да се стремим да запазим краката си сухи и главите си чисти, когато става въпрос за вечно задаващата се надпревара във въоръжаването с ИИ.

Източник: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- на пръчката/