Етика на AI и търсенето на самосъзнание в AI

Наясно ли сте със себе си?

Обзалагам се, че вярваш, че си.

Работата е там, че се предполага, че малко от нас са особено наясно със себе си. Има диапазон или степен на самосъзнание и всички ние се различаваме по това доколко проницателно сме самоосъзнати. Може да си мислите, че сте напълно наясно със себе си и само незначително. Може да не сте наясно със себе си и да осъзнаете, че това е вашето психическо състояние.

Междувременно, в най-горната част на спектъра, може да повярвате, че сте напълно самоосъзнати и наистина сте откровено толкова самоосъзнати, колкото идват. Добре за теб.

Говорейки за това, каква е ползата от това да бъдеш изключително самоосъзнат?

Според изследвания, публикувани в Harvard Business Review (HBR) от Tasha Eurich, според съобщенията сте в състояние да вземате по-добри решения, по-уверени сте в решенията си, по-силни сте в комуникационните си способности и по-ефективни като цяло (по статия, озаглавена „Какво всъщност е самосъзнанието (и как) да го култивирате)." Допълнителният фактор е, че хората с рязко самосъзнание се казва, че са по-малко склонни да мамят, крадат или лъжат. В този смисъл има две възможности за избягване да бъдеш негодник или мошеник, заедно с стремейки се да бъдете по-добро човешко същество и да украсите своите събратя.

Всички тези разговори за самосъзнание повдигат донякъде очевиден въпрос, а именно какво всъщност означава фразата самосъзнание. Лесно можете да намерите тонове различни дефиниции и тълкувания за сложната и да кажем кашава конструкция, включваща самосъзнание. Някои биха опростили нещата, като предположат, че самоосъзнаването се състои от наблюдение на себе си, като знаете какво правите. Вие сте наясно със собствените си мисли и действия.

Вероятно, когато не е самоосъзнат, човек няма да осъзнава какво прави, нито защо е така, а също така няма да е наясно с това, което другите хора имат да кажат за него. Сигурен съм, че сте срещали хора, които са като този.

Изглежда, че някои хора ходят по тази земя, без да имат представа какво правят самите те и нямат нищо общо с това, което другите казват за тях. Предполагам, че можете да твърдите, че те са като бик, нападащ с главата надолу в бутик за деликатни чупливи стоки. Обикновено сме склонни да вярваме, че бикът не знае какво прави и не обръща внимание на гледните точки на другите, освен ако тези други не се опитат физически да маневрират или да държат в затвора невежото създание.

Казва се, че самосъзнанието може да бъде донякъде рекурсивно.

Нека скицирам пример, за да илюстрирам тази рекурсия. Вие сте по средата на гледане на доста увлекателно видео с котка на вашия смартфон (изглежда, че всички правят това). Някои хора не биха имали други очевидни мисли, освен чудните стоплящи сърцето лудории на тези мили котки. Междувременно всеки, който има малко самосъзнание, е наясно, че гледа видео с котка. Те може също да знаят, че другите около тях отбелязват, че гледат видео с котка.

Забележете, че можете да сте самоосъзнати и все още да сте потопени в, да кажем, определена основна дейност. Основната дейност в този случай е гледането на видео с котка. На второ място и едновременно с това можете да носите мисълта, че всъщност гледате видео с котка. Вие също можете да носите мисълта, че другите ви наблюдават, докато гледате напълно забавното видео с котка. Не е задължително да спрете една дейност, като например да преустановите гледането на видео с котка, за да след това отделно мислите, че гледате (или просто сте) гледате видео с котка. Тези мисли изглежда могат да се появят паралелно една с друга.

Понякога нашето самосъзнание може да ни изхвърли или поне да ни прекъсне основна умствена дейност. Може би, докато мислите за това как гледате видеоклипа с котка, умът ви частично се отклонява, тъй като е прекалено натоварен да се концентрира единствено върху самото видео. След това избирате да превъртите назад видеото, за да преразгледате частта, която като че ли сте видели, но която психически сте били разсеяни от пълното разбиране. Самосъзнанието наруши основната ви умствена дейност.

Добре, вече сме готови за появата на рекурсивните аспекти.

Готови ли сте?

Гледате видео с котка. Вашето самосъзнание ви информира, че гледате видео с котка и че другите ви гледат, докато гледате видеото. Това е статуквото.

След това правите допълнителен умствен скок. Започвате да мислите за вашето самосъзнание. Вие сте наясно, че ангажирате вашето самосъзнание. Ето как става това: Мисля ли твърде много за това, че гледам видеото с котката, питате се отчаяно? Това е друг слой на самосъзнание. Класиране на самосъзнанието над другото самосъзнание.

Има една стара поговорка, че целият път е костенурка. За феномена на самоосъзнаването вие бихте могли да бъдете:

  • Не осъзнавайки себе си
  • Самоосъзнаване на себе си
  • Самосъзнаване на вашето самосъзнание за себе си
  • Самоосъзнаване на вашето самоосъзнаване на вашето самоосъзнаване на себе си
  • Ad Infinitum (т.е. и т.н.)

Може би сте разбрали, че по-рано изтъкнах неусетно, че изглежда има две основни категории на самосъзнание. Една конкретна теория постулира, че имаме вид вътрешно самосъзнание, което се фокусира върху вътрешните ни състояния, и също имаме външно самосъзнание, което помага при измерването на възприятията за нас на хората около нас, които ни гледат.

Съгласно статията на HBR, ето кратко описание на теоретизираните два типа самосъзнание: „Първият, който нарекохме вътрешно самосъзнание, представя колко ясно виждаме собствените си ценности, страсти, стремежи, съответствие с нашата среда, реакции (включително мисли, чувства, поведение, силни и слаби страни) и влияние върху другите. А междувременно другото е: „Втората категория, външно самосъзнание, означава да разберем как другите хора гледат на нас по отношение на същите тези фактори, изброени по-горе. Нашето изследване показва, че хората, които знаят как другите ги виждат, са по-умели да проявяват съпричастност и да приемат гледната точка на другите.“

Удобна матрица две по две или четири квадрата може да бъде извлечена, като се твърди, че както вътрешното, така и външното самосъзнание варират от високо до ниско и можете да съпоставите двете категории една срещу друга. Изследването на HBR показва, че се смята, че сте един от тези четири архетипа на самосъзнание:

  • Introspector: Ниско външно самосъзнание + високо вътрешно самосъзнание
  • Търсач: Ниско външно самосъзнание + Ниско вътрешно самосъзнание
  • Моля: високо външно самосъзнание + ниско вътрешно самосъзнание
  • Осъзнаване: високо външно самосъзнание + високо вътрешно самосъзнание

Върхът би бил архетипът „Осъзнат“, който се състои в това да бъдеш на най-високото стъпало на външно самосъзнание и по същия начин на върха на вътрешно самосъзнание. За да поясня, вие не постигате тази прехвалена поза по непременно постоянен начин. Можете да се плъзгате напред-назад между това да бъдете високо и ниско, между двете вътрешни и външни сфери на самосъзнание. Може да зависи от времето на деня, ситуацията, в която се намирате, и куп други важни фактори.

Сега, след като приветливо разгледахме някои основни елементи за самосъзнанието, можем да се опитаме да свържем това с темата за етичното поведение.

Обичайното твърдение за самоосъзнаването е, че е по-вероятно да сте над борда, когато сте самоосъзнати. Това означава, както вече беше посочено, че сте по-малко склонни към неблагоприятно етично поведение като кражба, измама и лъжа. Обосновката за тази тенденция е, че активността на вашето самосъзнание би ви накарала да осъзнаете, че собственото ви поведение е неприятно или неетично. Не само, че се хващате, докато се отклонявате в кални неетични води, но също така сте склонни да се върнете обратно на сухо и така да се каже (святостта на етичната територия).

Вашето самосъзнание ви помага да упражнявате самоконтрол.

Контраст вероятно би бил, когато има малко или никакво самосъзнание, което предполага, че някой може би не забелязва своята склонност към неетично поведение. Бихте могли да твърдите, че такъв неосведомен човек може да не осъзнае, че се представя неблагоприятно. Подобно на бика в магазина за чупливи стоки, докато нещо по-явно не привлече вниманието им, те едва ли ще се саморегулират.

Между другото, не всеки приема това. Някои биха възразили, че самосъзнанието може да бъде толкова лесно приложено към това да бъдеш неетичен, колкото и да бъдеш етичен. Например, един злосторник може да е напълно наясно със себе си и да се наслаждава, че извършва неправомерното действие. Тяхното самосъзнание дори ги тласка по-настойчиво към все по-големи и по-големи актове на престъпно неправомерно поведение.

Има повече облаци, отколкото може да се срещне директно с окото. Да предположим, че някой има силно самосъзнание, но не е наясно с етичните нрави на дадено общество или култура. По този начин те нямат никакви етични насоки, въпреки заявения факт, че са самосъзнателни. Или, ако желаете, може би човекът знае за етичните принципи и не вярва, че те се отнасят за тях. Те се смятат за уникални или извън границите на конвенционалното етично мислене.

Върти се в кръг.

Самоосъзнаването може да се тълкува като етически ориентиран меч с две остриета, биха подчертали пламенно някои.

За момента нека да се спрем на версията с щастливо лице, състояща се от самосъзнание като цяло, което ни насочва или тласка към етично поведение. При равни други условия ще направим наглото предположение, че колкото повече самосъзнание има, толкова по-етични ще бъдете. Със сигурност изглежда приятно и вдъхновяващо да го пожелаем.

Нека сменим предавките и вкараме изкуствения интелект (AI) в картината.

Намираме се в момента на тази дискусия, за да свържем всички продължаващи преплитания с процъфтяващата сфера на етичния AI, известен също като етиката на AI. За моето текущо и обширно отразяване на етиката на ИИ вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Понятието етичен AI включва преплитане на областта на етиката и етичното поведение с появата на AI. Със сигурност сте виждали заглавия, които предизвикват тревога относно изкуствения интелект, който е пълен с несправедливост и различни пристрастия. Например има опасения, че системите за лицево разпознаване, базирани на изкуствен интелект, понякога могат да показват расова и полова дискриминация, обикновено в резултат на това как основните съоръжения за машинно обучение (ML) и задълбочено обучение (DL) са били обучени и използвани (вижте моя анализ при тази връзка тук).

За да се опитате да спрете или поне да смекчите безчинстващия бяг към него AI за лошо, състоящ се от AI системи, които са или по невнимание, или на моменти умишлено оформени да действат лошо, напоследък е наложително да се прилагат етичните предписания към разработването и използването на AI. Сериозната цел е да се предоставят етични насоки на разработчиците на AI, плюс фирмите, които изграждат или прилагат AI, и тези, които зависят от AI приложения. Като пример за етични принципи на ИИ, които са изработени и приети, вижте моето отразяване на връзката тук.

Дайте момент за размисъл, за да разгледате тези три изключително важни въпроса:

  • Можем ли да накараме разработчиците на AI да възприемат принципите на етичния AI и да приложат тези насоки в реална употреба?
  • Можем ли да накараме фирмите, които изработват или използват ИИ, да направят същото?
  • Можем ли да накараме тези, които използват AI, да осъзнаят по подобен начин аспектите на етичния AI?

Безсрамно бих казал това, това е трудна задача.

Тръпката от създаването на AI може да надделее над всяко намекване за внимание към етиката на AI. Е, не само тръпката, но и правенето на пари е неразделна част от това уравнение. Може да се изненадате да разберете, че някои в сферата на изкуствения интелект са склонни да кажат, че ще се заемат с „нещата“ на етичния изкуствен интелект, след като пуснат своите системи за изкуствен интелект през вратата. Това е типичната технологична мантра да се провалите бързо и често, докато не го направите правилно (надявам се да го направите правилно).

Разбира се, онези, които накратко набутват етично съмнителен AI на широката общественост, пускат коня от обора. Тяхната прокламирана разпространена идея е, че AI за лошо ще се поправи, след като е в ежедневна употреба, което е пагубно закъснение, тъй като конят вече галопира безразсъдно наоколо. Вреди могат да бъдат причинени. Има също повишен шанс нищо да не бъде коригирано или коригирано, докато AI се използва. Често извинение е, че ръчкането с AI в този момент може да го направи още по-лошо от гледна точка на вече неетичното алгоритмично вземане на решения (ADM), което излиза напълно от плъзгача.

Какво може да се направи, за да се получи полезността и жизнеността на наличието на етичен AI като ярко блестяща и насочваща светлина в умовете на тези, които изграждат AI, прилагат AI и използват AI?

Отговор: Самосъзнание.

Да, идеята е, че ако хората са по-осъзнати за това как използват или взаимодействат с ИИ, това може да увеличи склонността им да искат Етичният ИИ да бъде норма. Същото може да се каже за разработчиците на AI и компаниите, свързани с AI системи. Ако бяха по-осъзнати какво правят, може би щяха да възприемат повече етиката на ИИ.

Част от логиката, както вече беше посочено, е, че да си самоосъзнат предлага тенденция към това да бъдеш етично по-добър човек и също така да избягваш да бъдеш етично лош човек. Ако успеем да запазим тази предпоставка, това означава, че разработчиците на AI, които са толкова склонни към самосъзнание, следователно ще бъдат склонни към етично поведение и следователно ще бъдат склонни към създаване на етично здрав AI.

Това мост твърде далеч ли е за вас?

Някои биха казали, че индиректността е малко. Прекомерната верига от връзки между това да бъдеш самоосъзнат, да бъдеш етично добродетелен и прилагането на етични предписания към AI може би е трудна за преглъщане. Контрааргумент е, че не може да навреди да опитате.

Скептиците биха казали, че един разработчик на AI може да има самосъзнание и вероятно да е по-етично настроен, но не е задължително да скочат към прилагането на този умствен лагер към нравите на етичния AI. Отговорът на това притеснение е, че ако можем да разгласим и популяризираме въпросите, свързани с етичния AI, иначе привидно слабата връзка ще стане по-очевидна, очаквана и вероятно ще се превърне в стандартния начин за правене на нещата, когато става въпрос за създаване на AI.

Сега ще добавя обрат към тази сага. Обратът може да ви замае главата. Моля, уверете се, че сте седнали добре и сте подготвени за това, което ще посоча.

Някои посочват, че трябва да изградим етичен AI директно в самия AI.

Може да останете озадачени от това изказване. Нека го разопаковаме.

Програмистът може да създаде AI система и да го направи със собственото си самосъзнание за програмиране, опитвайки се да попречи на AI да въплъщава пристрастия и несправедливости. Вместо просто да се занимава с програмирането, разработчикът наблюдава през собственото си рамо, за да попита дали подходът, който предприемат, ще доведе до необходимото отсъствие на неблагоприятни елементи в AI.

Страхотно, имаме разработчик на изкуствен интелект, който изглежда достатъчно самоосъзнат, търсил е да възприеме етично поведение и е видял светлината да включи етични принципи, докато изработва своята система за изкуствен интелект.

Отбележете победа за Ethical AI!

Всичко хубаво, макар че ето нещо, което може да се прояви по-късно. Изкуственият интелект се използва и се използва ежедневно. Част от AI включваше компонент за възможността да се „учи“ в движение. Това означава, че AI може да се коригира въз основа на нови данни и други аспекти на оригиналното програмиране. Накратко, това не означава, че AI е разумен. Ние нямаме разумен AI. Игнорирайте тези глупави заглавия, които казват, че го правим. Никой не може да каже дали ще имаме разумен ИИ, нито някой може да предскаже достатъчно кога, ако изобщо ще се случи това.

Връщайки се към нашата история, AI беше целенасочено създаден, за да се подобрява, докато е в ход. Доста удобна идея. Вместо програмистите да трябва непрекъснато да правят подобрения, те позволяват на програмата за изкуствен интелект да го прави сама (ооооооооооооооооооооооооооличване вие?).

През времето, през което AI инч по инч се настройва, се оказва, че различни мръсни несправедливости и пристрастия се прокрадват в системата AI чрез нейните собствени действия на промяна. Докато програмистът първоначално е държал настрана тези долнопробни аспекти, сега те формулират поради AI, коригиращ се в движение. За съжаление, това може да се случи по толкова фин задкулисен начин, че никой не е по-мъдър. Тези, които по-рано можеха да дадат зелена светлина на AI след първоначалното изчерпателно тестване, сега сляпо не знаят, че AI е тръгнал по гнилия път на AI за лошо.

Едно средство за предотвратяване или поне за улавяне на тази нежелана поява би било да се вгради в AI един вид етичен AI инструмент за двойна проверка. Компонент в рамките на AI е програмиран да наблюдава поведението на AI и да открива дали започва да се появява неетичен ADM. Ако е така, компонентът може да изпрати предупреждение до разработчиците на AI или да го направи до фирма, която управлява системата AI.

По-усъвършенствана версия на този компонент може да се опита да поправи AI. Това би било корекция на корекциите, превръщайки възникващите неетични аспекти обратно в правилните етични параметри. Можете да си представите, че този тип програмиране е трудно. Има шанс то да се обърка, евентуално да стане неетично в дълбоко неетично. Съществува и възможност за фалшиво положително задействане на компонента в действие и може би съответно да обърка нещата.

Както и да е, без да се затъваме в това как ще функционира тази двойна проверка, ще направим дръзка декларация за това. Бихте могли да предположите, че по някакъв ограничен начин се казва, че AI се самоосъзнава.

Ох, това са бойни думи за мнозина.

Преобладаващото убеждение на почти всички е, че днешният изкуствен интелект не е самоосъзнат. Точка и точка. Докато не достигнем чувствителен ИИ, който не знаем дали и кога ще се случи, няма никакъв вид ИИ, който да се самоосъзнава. Не поне в смисъла на ориентираното към човека самосъзнание. Дори не предполагайте, че може да се случи.

Определено съм съгласен, че трябва да внимаваме с антропоморфизирането на ИИ. Ще кажа повече за това безпокойство след малко.

Междувременно, ако в името на дискусията желаете да използвате поетапното „самоосъзнат“ по разхлабен начин, вярвам, че можете лесно да разберете защо може да се каже, че ИИ се придържа към цялостната представа за себе- осъзнаване. Имаме част от AI, която наблюдава останалата част от AI, следейки какво прави останалата част от AI. Когато останалата част от AI започне да прекалява, частта за наблюдение се стреми да открие това. Освен това частта за наблюдение на AI или двойната проверка може да насочи останалата част от AI обратно в правилните ленти.

Това не изглежда ли малко като акта да гледате тези видеоклипове с котки и да имате самосъзнанието, че правите това?

Има познат пръстен към него.

Можем да разширим това още повече. Компонентът за двойна проверка на AI не само е програмиран да наблюдава поведението на останалата част от AI, но също така отбелязва поведението на тези, които използват AI. Как се справят потребителите, когато използват AI? Да предположим, че някои потребители изразяват възмущение, че AI изглежда ги дискриминира. Инструментът за двойна проверка на AI може да успее да разбере това, като го използва като още един червен флаг за това, че останалата част от AI се заблуждава.

Това извежда вътрешното самосъзнание и категоризациите на външното самосъзнание.

Инструментът за двойна проверка на AI сканира вътрешно и външно, за да разбере дали останалата част от AI се е насочила към тревожни морета. Откриването ще повдигне флаг или ще доведе до извършване на самокорекция.

Нека добавим още едно малко умопомрачително разширение. Създаваме друг AI инструмент за двойна проверка, който е предназначен да проверява два пъти основния AI инструмент за двойна проверка. Защо така? Е, да предположим, че системата за двойна проверка на AI изглежда се затруднява или не успява да свърши работата си. AI двойната проверка на двойната проверка би се опитала да открие тази неизправност и съответно да предприеме необходимите действия. Добре дошли в рекурсивната природа на самосъзнанието, някои биха могли гордо да заявят, както е показано в изчислителна система с ИИ.

За тези от вас, които вече са на ръба на мястото си по този въпрос, последният коментар засега е, че можем да се опитаме да предположим, че ако направите системите с ИИ „самосъзнателни“, те тогава потенциално ще гравитират към етично поведение. Правят ли това на съзнателна основа? Решително не. Те правят ли това на изчислителна основа? Да, въпреки че трябва да сме ясни, че не е от същия калибър като човешкото поведение.

Ако се чувствате неудобно, че понятието за самосъзнание е погрешно изкривено, за да се вмести в изчислителна схема, опасенията ви по този въпрос са добре забелязани. Друг отворен въпрос е дали трябва да спрем продължаващите усилия на AI, които използват идеята. Бихте могли убедително да твърдите, че поне изглежда, че ни води към по-добър резултат от това, което AI вероятно ще направи. Все пак трябва да имаме широко отворени очи, докато това се случва.

Предполагам, че ще трябва да видим как ще се развие всичко това. Върнете се към това след пет години, десет години и петдесет години и вижте дали вашето мислене се е променило по спорния въпрос.

Разбирам, че това беше донякъде опияняващо разглеждане на темата и може би копнеете за някои ежедневни примери. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на базирани на изкуствен интелект истински самоуправляващи се автомобили осветлява нещо относно това, че изкуственият интелект има подобие на „самосъзнание“ и ако е така, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, че AI управлява колата изцяло самостоятелно и няма никаква човешка помощ по време на шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5, за която все още не знаем дали това ще бъде възможно и колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и AI с така нареченото самосъзнание

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да направим дълбоко гмуркане в самоуправляващите се автомобили и етичните AI въпроси, включващи повдигащата вежди представа, че AI има някакъв вид самосъзнание, ако желаете.

Нека използваме лесно ясен пример. Самоуправляваща се кола, базирана на AI, се движи по кварталните улици и изглежда шофира безопасно. Отначало сте отделяли специално внимание на всеки път, когато сте успели да зърнете самоуправляващата се кола. Автономното превозно средство се открояваше със своя багажник от електронни сензори, включващи видеокамери, радарни устройства, LIDAR устройства и други подобни. След много седмици на самоуправляващата се кола, която пътува из общността ви, сега почти не го забелязвате. Що се отнася до вас, това е просто още една кола по вече натоварените обществени пътища.

За да не мислите, че е невъзможно или неправдоподобно да се запознаете с виждането на самоуправляващи се автомобили, често съм писал за това как местата, които са в обхвата на изпробването на самоуправляващи се автомобили, постепенно свикнаха да виждат усъвършенстваните превозни средства, вижте моя анализ на тази връзка тук. Много от местните жители в крайна сметка преминаха от зяпащи уста, възторжени погледи към сега излъчващи обширна прозявка на скука, за да станат свидетели на тези криволичещи самоуправляващи се коли.

Вероятно основната причина в момента, поради която могат да забележат автономните превозни средства, е поради фактора на дразнене и раздразнение. Стандартните системи за шофиране с изкуствен интелект гарантират, че автомобилите спазват всички ограничения на скоростта и правилата за движение. За забързаните човешки шофьори в традиционните им коли, управлявани от хора, понякога се дразните, когато сте заседнали зад строго спазващите закона самоуправляващи се автомобили, базирани на AI.

Това е нещо, с което всички ние може да трябва да свикнем, с право или погрешно.

Обратно към нашата приказка. Да предположим, че един ден самоуправляваща се кола във вашия град се приближава до знак „Стоп“ и не изглежда да намалява. Небеса, изглежда, че системата за шофиране с изкуствен интелект ще накара самоуправляващата се кола да плува точно след знака Стоп. Представете си, че пешеходец или велосипедист е някъде наблизо и бъде хванат неподготвен, че самоуправляващата се кола няма да спре правилно. срамно. опасно!

И незаконно.

Нека сега разгледаме AI компонент в системата за управление на AI, който действа като стил на самоосъзната двойна проверка.

Ще отделим малко време, за да се впуснем в детайлите на това, което се случва вътре в системата за управление на AI. Оказва се, че видеокамерите, монтирани на автономното превозно средство, са засекли нещо, което може би е знак „Стоп“, въпреки че в този случай обрасло дърво изобилно закрива знака „Стоп“. Системата за машинно обучение и задълбочено обучение, която първоначално беше обучена на знаци Stop, беше разработена върху модели на принципно пълни знаци Stop, като цяло неограничени. При изчислително изследване на видеоизображенията беше определена малка вероятност, че знак „Стоп“ съществува на това конкретно място (като допълнително усложнение и допълнително обяснение, това беше наскоро публикуван знак „Стоп“, който не се появи на предварително подготвените цифрови карти, които AI система за шофиране, на която се разчита).

Като цяло системата за управление на AI изчислително е решена да продължи напред, сякаш знакът Стоп или не съществува, или вероятно е знак от друг вид, който вероятно прилича на знак Стоп (това може да се случи и се случва с известна честота).

Но, за щастие, AI самоосъзнаващата се двойна проверка наблюдаваше дейностите на системата за управление на AI. След изчислителен преглед на данните и оценката от останалата част от AI, този компонент избра да отмени нормалния ход на действие и вместо това заповяда на системата за управление на AI да спре подходящо.

Няма пострадали и не е възникнало противоправно деяние.

Може да се каже, че самоосъзнаващият се двоен контролер на AI действаше така, сякаш е вграден правен агент, опитвайки се да гарантира, че системата за управление на AI спазва закона (в този случай знак „Стоп“). Разбира се, безопасността също беше ключова.

Надяваме се, че този пример демонстрира как може да работи замисленият AI самоосъзнат двоен контролер.

След това можем накратко да разгледаме един по-забележим пример за етичен AI, който илюстрира как самоосъзнатата двойна проверка на AI може да осигури вградена функционалност, ориентирана към етиката.

Първо, като предистория, едно от опасенията, които бяха изразени относно появата на базирани на AI самоуправляващи се автомобили, е, че в крайна сметка те могат да бъдат използвани по донякъде непреднамерен дискриминационен начин. Ето как. Да предположим, че тези самоуправляващи се автомобили са настроени да се опитат да увеличат максимално потенциала си за приходи, което определено има смисъл за тези, които управляват флот от налични самоуправляващи се автомобили за споделено пътуване. Собственикът на автопарка би искал да има печеливша операция.

Възможно е в даден град роуминг самоуправляващите се автомобили постепенно да започнат да обслужват някои части на общността, а не други области. Те правят това с цел правене на пари, тъй като по-бедните райони може да не носят толкова приходи, колкото по-богатите части на местността. Това не е изричен стремеж да се обслужват едни области и да не се обслужват други. Вместо това органично възниква, тъй като AI на самоуправляващите се автомобили „разбира“ изчислително, че има повече пари, които могат да се направят, като се концентрира върху географски по-високоплатените райони. Обсъждал съм тази обществена етична загриженост в моята колона, като напр връзката тук.

Да приемем, че сме добавили AI самоосъзнаващ се двоен контролер в системите за управление на AI. След известно време AI компонентът изчислително забелязва модел на това къде се движат самоуправляващите се автомобили. По-специално, в някои области, но не и в други. Въз основа на това, че е бил кодиран с някои етични предписания на ИИ, самоосъзнаващият се двоен контролер започва да насочва самоуправляващите се автомобили към други части на града, които иначе са били пренебрегвани.

Това илюстрира идеята за самоосъзнаване на AI и го прави в комбинация с елемента на етичния AI.

Още един такъв пример може да даде представа, че това съображение за етичен изкуствен интелект също може да бъде доста отрезвяващо и сериозно разклонение на живот или смърт.

Помислете за новинарски репортаж за скорошна автомобилна катастрофа. Съобщава се, че човешки шофьор се е приближавал до натоварено кръстовище и е имал зелен светофар, за да продължи направо. Друг шофьор мина на червен светофар и влезе в кръстовището, когато не трябваше да го правят. Шофьорът със зелена светлина в последния момент разбрал, че тази друга кола ще се блъсна жестоко в колата му.

Според този застрашен шофьор, той внимателно е изчислил, че или ще бъде ударен от другата кола, или може да завие, за да се опита да избегне натрапника. Проблемът с отклоняването беше, че наблизо имаше пешеходци, които биха били застрашени.

Кой избор бихте направили?

Можете да се подготвите да бъдете ударени и да се надявате, че щетите няма да ви осакатят или убият. От друга страна, можете да се отклоните радикално, но сериозно да застрашите и евентуално да навредите или убиете пешеходци наблизо. Това е труден проблем, който включва морална преценка и е изцяло потопен в етични (и правни) последици.

Има етичен проблем с общо предназначение, който покрива този вид дилема, известно или може би позорно наречено Проблемът с тролейбуса, вижте обширното ми отразяване на тази връзка тук. Оказва се, че това е етично стимулиращ мисловен експеримент, който датира от началото на 1900 г. Като такава, темата съществува от доста време и наскоро започна да се свързва с появата на AI и самоуправляващите се автомобили.

Заменете човешкия шофьор с AI система за шофиране, вградена в самоуправляваща се кола.

Представете си тогава, че самоуправляваща се кола с изкуствен интелект влиза в кръстовище и сензорите на автономното превозно средство внезапно откриват управлявана от хора кола, която опасно преминава директно през червен светофар и се насочва към колата без водач. Да приемем, че самоуправляващата се кола има няколко пътника в превозното средство.

Какво искате да направи AI?

Трябва ли системата за шофиране с изкуствен интелект да избере да продължи напред и да бъде връхлетяна (вероятно наранявайки или може би убивайки пътниците в автомобила), или искате системата за шофиране с изкуствен интелект да рискува и да се отклони, въпреки че действието за завиване отнема автономното превозно средство опасно към близките пешеходци и може да ги нарани или убие.

Много от производителите на изкуствен интелект на самоуправляващи се автомобили възприемат подход с главата в пясъка към тези етични затруднения с изкуствения интелект. Като цяло AI, както е програмиран в момента, просто ще оре напред и ще бъде яростно блъснат от другата кола. AI не беше програмиран да търси други маневри за избягване.

Многократно съм прогнозирал, че тази позиция на производителите на самоуправляващи се автомобили с изкуствен интелект в крайна сметка ще дойде и ще ги ухапе (моят анализ е на връзката тук). Можете да очаквате съдебни дела, включващи такива автомобилни катастрофи, които ще се стремят да разберат какво е програмиран да прави AI. Дали компанията или разработчиците на AI или операторът на флота, които са разработили и внедрили AI, са били небрежни или отговорни за това, което AI е направил или не е направил? Можете също така да очаквате обществена огнена буря, свързана с етиката на AI, след като възникнат подобни случаи.

В тази дилема за етичния AI влиза нашият прехвален AI самоосъзнат инструмент за двойна проверка, който е ориентиран към етиката. Може би този специален AI компонент може да се включи в подобни обстоятелства. Частта наблюдава останалата част от AI системата за управление и състоянието на самоуправляващата се кола. Когато възникне ужасен момент като този, AI компонентът служи като средство за решаване на проблеми с тролейбуса и предлага какво трябва да направи системата за управление на AI.

Не е лесно нещо за кодиране, уверявам ви.

Заключение

Ще споделя с вас последната мисъл за сега по тази тема.

Вероятно ще го намерите за интригуващо.

Знаете ли за това огледален тест?

Това е доста добре известно в изследването на самосъзнанието. Други имена за въпроса са тестът за саморазпознаване на огледалото, тестът за червено петно, тестът за руж и свързани фрази. Техниката и подходът първоначално са създадени в началото на 1970-те години за оценка на самосъзнанието на животните. Животните, които според съобщенията са преминали успешно теста, включват маймуни, някои видове слонове, делфини, свраки и някои други. Животните, които са били тествани и според съобщенията не са преминали теста, включват гигантски панди, морски лъвове и др.

Ето сделката.

Когато едно животно се види в огледало, осъзнава ли животното, че показаното изображение е на него, или животното мисли, че е друго животно?

Предполага се, че животното визуално разпознава собствения си вид, след като е видяло друг от своя вид, и следователно може да си помисли, че животното, показано в огледалото, е братовчед или може би войнствен конкурент (особено ако животното изръмжава на огледалния образ, което в Turn изглежда им ръмжи). Може би сте виждали вашата домашна котка или любимо домашно куче да прави същото, когато се види в домашно огледало за първи път.

Във всеки случай бихме предположили, че диво животно никога не се е виждало преди. Е, това не е непременно вярно, тъй като може би животното е зърнало себе си в спокоен басейн с вода или през лъскава скална формация. Но това се считат за по-малко вероятни шансове.

Добре, искаме по някакъв начин да оценим дали едно животно е в състояние да разбере, че всъщност е животното, показано в огледалото. Помислете върху това на пръв поглед просто действие. Хората разбират в ранна възраст, че съществуват и че тяхното съществуване се демонстрира, като се видят в огледало. Те осъзнават себе си. На теория може да не осъзнаете, че сте вие, докато не се видите в огледалото.

Може би животните не са в състояние когнитивно да се самоосъзнават по същия начин. Възможно е едно животно да се види в огледалото и постоянно да вярва, че е друго животно. Колкото и пъти да се вижда, то все ще си помисли, че това е различно животно от него.

Налице е хитростта в това. Правим знак върху животното. Този знак трябва да се вижда само когато животното се види в огледалото. Ако животното може да се извие или завърти и да види белег върху себе си (директно), това проваля експеримента. Освен това животното не може да усети, помирише или по какъвто и да е друг начин да открие марката. Още веднъж, ако го направиха, това щеше да провали експеримента. Животното не може да знае, че сме поставили белег върху него, тъй като това би подсказало на звяра, че има нещо там.

Искаме да стесним нещата така, че единствената възможна причина марката да бъде откриваема да бъде чрез гледане на себе си в огледалото.

Аха, тестът вече е готов. Животното се поставя пред огледало или се скита до него. Ако впоследствие животното се опита да докосне или рови марката, разумно бихме заключили, че единственият начин това да се случи е, ако животното осъзнае, че марката е върху него. Много малко животински видове са успели да преминат успешно този тест.

Има много критики към теста. Ако човек-тестер е наблизо, той може да раздаде неща, като се взира в марката, което може да накара животното да се изчетка или да я опипа. Друга възможност е животното все още да вярва, че в огледалото е показано друго животно, но то е от същия вид и по този начин животното се чуди дали и то има белег като този на другото животно.

Продължава и продължава.

Сигурен съм, че се радвате да знаете това и отсега нататък ще разберете защо има точка или някаква странна маркировка върху животно, което иначе не би имало такава маркировка. Кой знае, може наскоро да е завършил експеримент с огледален тест. Поздравете животното, безопасно, че е било щедър участник.

Какво общо има всичко това със самоуправляващите се автомобили, базирани на AI?

Тази част ще ви хареса.

Автомобил се движи по дълга магистрала. Системата за шофиране с изкуствен интелект използва сензори за откриване на друг трафик. Това е магистрала с две ленти, която има движение на север в едната лента и на юг в другата лента. Понякога колите и камионите ще се опитват да се разминат, като навлизат в насрещната лента и след това се връщат обратно в правилната лента за движение.

Виждали сте това, несъмнено сте правили това.

Обзалагам се, че следващият аспект се е случил и на вас. Пред самоуправляващата се кола е един от онези огромни камиони цистерни. Изработена е от лъскав метал. Полиран и чист като свирка. Когато застанете зад такъв камион, можете да видите огледалния образ на вашия автомобил през задната част на цистерната. Ако сте виждали това, знаете колко хипнотизиращо може да бъде. Ето ви, вие и вашата кола, отразени в огледалното отражение на задната част на камиона цистерна.

Седнете за лудия обрат.

Зад камиона цистерна идва самоуправляваща се кола. Камерите засичат образа на автомобил, който се показва в огледалното отражение. Уау, AI оценява, това кола ли е? Идва ли към самоуправляващата се кола? Докато самоуправляващата се кола се приближава все повече и по-близо до камиона-цистерна, колата изглежда все по-близо и по-близо.

Да, изкуственият интелект може изчислително да изчисли, че това е опасна ситуация и трябва да предприеме действия за избягване на това лудо превозно средство. Виждате ли, AI не се разпозна в огледалото. Не успя на огледалния тест.

Какво да правя? Може би самоосъзнаващият се двоен контролер скача в въпроса и уверява останалата част от управляващата система на ИИ, че това е само безвредно отражение. Предотвратена опасност. Светът е спасен. Успешно преминаване на AI Mirror Test!

С наивно заключение бихме могли дори да предположим, че понякога изкуственият интелект е по-умен или поне по-самоосъзнат от средната мечка (въпреки че, за чест на мечките, те обикновено се справят добре в огледалния тест, като често са получавали свикнали с отражението си във водни басейни).

Поправка, може би изкуственият интелект може да бъде по-самоосъзнат от гигантските панди и морските лъвове, но не казвайте това на животните, те може да се изкушат да разбият или ударят системите с изкуствен интелект. Не искаме това, нали?

Източник: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/