Етиката на изкуствения интелект, нарушена от най-новия разработен от Китай AI, лоялност към партията, четене на мисли, лицево разпознаване, удостоверяване, което може да предвещава потискащи автономни системи

лоялен ли си

На теория може да е възможно да се изследват явните ви дела и да се установи дали лоялността се проявява чрез вашите действия.

Да предположим обаче, че вместо това е направен опит да се прочетат мислите ви и междувременно да се сканира лицето ви, за да се определи коефициентът ви на лоялност. Това е зловещо натрапчиво; можете лесно да порицаете. Звучи като един от онези луди научно-фантастични филми, които представят бъдещо дистопично общество.

За щастие, прошепваш крадешком на себе си, днес нямаме нищо подобно.

Уау, задръжте конете си.

Новинарските заглавия наскоро избухнаха, че изследователска статия, публикувана онлайн в Китай на 1 юли 2022 г., изобразява проучване, което предполагаемо включва оценка на мозъчните вълни на хората и техните изражения на лицето с цел изчисляване дали са лоялни към Китайската комунистическа партия (ККП) . И така, ето, бъдещето става все по-близо и по-близо, поне по отношение на постигането на дистопичното общество, което сме се страхували, че може да възникне някой ден.

Изследователската статия бързо изчезна от публикуваната онлайн връзка.

Предполага се, че бързото презрение, което бързо се разпространи в интернет, беше достатъчно, за да бъде свален вестникът. Или може би изследователите просто искат да направят няколко промени във формулировката и други безобидни корекции, като се стремят да направят повторно публикуване, след като са имали по-задълбочен шанс да се уверят, че i-то е с точка, а t-то е пресечено. Ще трябва да държим очите си отворени, за да видим дали хартията ще получи втори живот.

Ще продължа напред и ще се потопя дълбоко в това, което знаем за изследването и ще се опитам да свържа точките за това как този вид работа, свързана с ИИ, има значение за всички нас, отивайки далеч отвъд обхвата на виждането на това като ограничени до една конкретна държава. Моето отразяване ще бъде малко по-обширно от другите скорошни репортажи за тази новина, така че моля, имайте търпение.

Моят допълнителен акцент също ще бъде, че има множество жизненоважни уроци по етика на ИИ, които можем да извлечем от предполагаемия документ. За моето текущо и обширно отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Ето какво беше споменато досега за изследването.

Очевидно някои „доброволци“ са били вербувани да участват в експеримент относно възприятията на ККП. Не е известно дали са били доброволци или по-скоро подбуждани или може би ръководени доброволци. Ще приемем за целите на дискусията, че те са били съгласни да бъдат обект на изследването.

Споменавам това, за да не бъда просто зловещ. Всеки път, когато се прави експеримент с участието на хора, има множество общоприети практики по отношение на набирането и потапянето на такива субекти в изследователски усилия. Това отчасти се връща към предишни проучвания, които често подвеждат или принуждават хората да участват в експеримент, което понякога води до неблагоприятни психологически последици или дори физическо увреждане за тези участници. Научната общност се опита силно да ограничи тези видове коварни изследвания и изисква да се предоставят всякакви разкрития и предупреждения на онези, които се търсят за включване в проучвания, свързани с хора.

За да поясня, не всеки се придържа към такива предпазливи и добросъвестни указания.

Продължавайки напред, съобщава се, че има 43 субекта и се казва, че са членове на Китайската комунистическа партия. Имайте предвид, че изборът на субекти за експеримент е изключително важен за експеримента и също така трябва да се вземе предвид по отношение на всички заключения, които може да опитате да достигнете след това относно резултатите от експеримента.

Да предположим, че искам да направя експеримент за това как хората възприемат всепризнатата поредица Междузвездни войни. Ако предварително избера субекти, които всички силно мразят Междузвездни войни (как могат да съществуват такива хора?), и им покажа видеоклипове на Междузвездни войни, шансовете са те вероятно да кажат, че все още не харесват Междузвездни войни. Въз основа на този псевдо-научен експеримент, може би скрито твърдя, че хората - като цяло - наистина мразят Междузвездни войни, което беше „доказано“ (намигване-намигване) в моята „внимателно“ подготвена изследователска среда.

Може би не знаете, че бях манипулирал колелото на рулетката, така да се каже, чрез предварителен подбор на темите, които очаквах да доведат до тайно желаните от мен резултати. Разбира се, ако вместо това умишлено бях наел хора, които обичаха Междузвездни войни и бяха ревностни запалени фенове, шансовете са те да докладват, че са във възторг от гледането на тези клипове на Междузвездни войни. Отново, всички направени заключения за това как хората като цяло реагират на Междузвездни войни ще бъдат смекчени от предварително избрания набор от теми, избрани за усилието.

Проучването, фокусирано върху ККП, изглежда накара субектите да седнат пред подобен на павилион видео дисплей и да прочетат различни статии за политиките и постиженията на ККП. Това вероятно е смятаното за „експериментално лечение“, на което са изложени субектите. Когато планирате експеримент, обикновено измисляте експериментален фактор или аспект, който искате да видите дали влияе върху участниците.

Изследователският въпрос, който очевидно се проучва, е дали актът на преглед на тези материали би имал някакво въздействие върху субектите по отношение на увеличаване, намаляване или неутрално отношение към последващите им впечатления от ККП.

В класическа нулева хипотеза можете да организирате такова изследване, за да заявите, че консумираните материали нямат влияние върху последващите впечатления, изразени от субектите. След като сте направили сравнение преди и след на техните гледни точки относно ККП, ще се опитате статистически да видите дали е имало статистически значимо откриване на промяна в техните впечатления.

Може да се окаже, че преди и след не са статистически различни, следователно можете разумно да заключите условно, че за това конкретно проучване показаните материали (експериментално лечение) изглежда не са променили впечатленията им. От друга страна, ако имаше статистически валидна разлика, ще погледнете дали след това е по-голямо от предишното, което ви позволява предпазливо да предположите, че материалите са засилили техните впечатления (и, от другата страна на монетата, ако след това е по-малко от преди това може да означава, че материалите са намалили или понижили своите впечатления).

Има много неприятни неуредици, които трябва да бъдат разгледани в такова проучване.

Например, обикновено искаме да имаме така наречената контролна група, която можем да сравним с тези, които получават експериментално лечение. Ето защо. Да предположим, че актът на седене пред павилион за четене на материали е истинската основа за промяната на впечатленията. Възможно е естеството на използваните материали да е грубо без значение за въздействието на впечатлението. Самото седене и четене на нещо, като най-новите истории за котки, които правят смешни неща, може да свърши работа. Следователно можем да уредим някои субекти да бъдат в нашата контролна група, която е изложена на някакъв друг материал за четене, различен от политиките на ККП и материалите за постиженията.

Не знаем дали това е направено в този случай (изглежда никой все още не е споменал този аспект).

Разбирам, че вече започвате да се притеснявате от медийно експлозивната част от изследването. Ще преминем експедитивно към тази част.

Как можем да открием дали субектите в този експеримент са отговорили или са променили впечатленията си в резултат на четенето на показаните материали?

Обичайно средство би било да ги попитате.

Може би предварително бихте подали въпросник, който ги пита за техните впечатления от ККП. След това, след излагането на експерименталното лечение, както при четенето на показаните материали, бихме могли да администрираме друг въпросник. След това могат да бъдат сравнени отговорите, дадени от субектите преди и след. Ако използвахме и контролна група, бихме предположили, че отговорите на контролната група няма да се променят съществено от преди към след (според убеждението, че гледането на истории за лудуващи котки не би трябвало да е повлияло на техните впечатления от CCP).

Този акт на питане на субектите за техните впечатления не е непременно толкова ясен, колкото може да изглежда.

Да предположим, че субектите в експеримента получават усещане или цялостно отклонение, че искате те да реагират на експерименталното лечение по определен начин. В този случай те биха могли нарочно да преувеличат реакциите си в последващата част от експерименталното приложение. Със сигурност сте виждали това да се случва. Ако правя вкусов тест за нова газирана напитка, излизаща на пазара, може да се държа така, сякаш съм изпитал безумно удоволствие от газираната напитка, като го правя с надеждата да бъда представен в реклама от производителя на сода и да получа заслужените си петнадесет минути слава .

Същността е, че просто да питате хората за мнението им не е сигурно средство за измерване на промените. Това е един подход. Могат и често се предприемат и други подходи.

Как това конкретно проучване реши да прецени реакциите на субектите?

Очевидно са използвани поне два метода. Един метод се състоеше в сканиране на лицето и използване на базиран на изкуствен интелект софтуер за разпознаване на лица за оценка на реакциите на субектите. Съобщава се, че другият метод е някаква форма на сканиране на мозъчни вълни. Все още не е съобщено какъв тип устройства за сканиране на мозъчни вълни са били използвани, нито какъв софтуер за анализ на мозъчни вълни, базиран на AI, е бил използван.

Различни доклади показват, че проучването посочва следното относно естеството на експеримента: „От една страна, може да се прецени как партийните членове са приели мисълта и политическото образование.“ Предполага се, че проучването също споменава това: „От друга страна, то ще предостави реални данни за мислене и политическо образование, така че да може да бъде подобрено и обогатено.“ Изследователското изследване се приписва на проведено под егидата на Китайския всеобхватен национален научен център Хефей.

Медийните съобщения предполагат, че проучването се позовава на твърдението, че сканирането на лицевото разпознаване и сканирането на мозъчните вълни са в състояние да помогнат при откриването, че последващите впечатления са били засилени за ККП.

Бих искал да отбележа за вас, че без да можем директно да прегледаме използваните системи и да разгледаме отблизо изследователската статия, ние не знаем подробностите за това как точно са били използвани тези базирани на AI системи.

Възможно е субектите да са реагирали на експерименталната обстановка, а не на експерименталното лечение. Всеки, който участва в проучване, може да е разтревожен, като начало. Това може да обърка всички усилия за сканиране на мозъчни вълни или анализ на лицеви модели. Има също така вероятност те да са се почувствали мотивирани да угодят на изследователите, като са измислили положителни мисли, след като са видели материалите и това на теория би могло да бъде отразено в сканирането на мозъчните вълни и сканирането на лицето (може би, но имайте предвид, че има страхотно дело на разпален спор относно валидността на подобни твърдения, както ще изясня веднага), надявайки се да изкривят резултатите и да покажат, че те са били повлияни положително.

Реакцията в Twitter по същество осъди, че самата идея за използване на сканиране на мозъчни вълни и лицево разпознаване, упълномощено от AI, само по себе си е ужасяващо и възмутително действие. Само човешки чудовища биха използвали такива устройства, казват ни някои от тези туитове.

Трябва да ви помоля да седнете и да се подготвите за нещо, което може да бъде груба и шокираща изненада.

Има много изследователи по света, които използват същите видове технологии в своите научни изследвания. Това със сигурност не е първият път, когато възможността за сканиране на мозъчни вълни се използва върху хора в изследователски усилия. Това със сигурност не беше първият път, когато лицевото разпознаване се използва върху хора за експериментални цели. Дори едно бегло онлайн търсене ще ви покаже много и много експериментални изследвания в различни държави и лаборатории, които са използвали тези видове устройства.

Като се има предвид това, използването им за измерване на лоялността към ККП не е нещо, върху което бихте се фокусирали много. Когато такъв AI се използва за правителствен контрол, се преминава червената линия, както се казва.

Това е очевидно смразяващата част от целия комплект и caboodle.

Изразената загриженост от мнозина е, че ако правителствата изберат да използват технология за сканиране на мозъчни вълни и разпознаване на лица, за да установят лоялността към съответните режими, ще се окажем в дистопичен свят на болка. Когато вървите по обществена улица, може да се окаже, че устройство, монтирано на стълб за лампа, тайно ще определи вашия коефициент на лоялност.

Човек предполага, че ако лицето ви изглежда не подсказва, че сте достатъчно лоялен, или ако сканирането на мозъчните вълни подсказва същото, правителствените бандити може внезапно да се втурнат и да ви сграбчат. Изнервящо. Бездната. Не трябва да се допуска.

Това е същността на причината за тази новина да се появи заглавие, което блика от гняв и възмущение.

Представете си това. Вероятно ще изработим и след това ще пуснем в употреба компютърно базирани системи, които използват най-новото в AI, за да решат дали сме лоялни или не. Ако се опитате да наемете хора, които да седят и да правят същото, ще имате нужда от много хора и ще имате логистичен проблем да се опитвате да ги позиционирате така, че да наблюдават всички. В случай на система, базирана на AI, всичко, което трябва да направите, е да настроите електронните устройства на стълбове за лампи, страни на сгради и т.н. Сканирането за лоялност може да се извършва 24×7, по всяко време, на всички места, оборудвани по този начин. След това това може да бъде въведено в масивна база данни.

Ние се превръщаме в хора, които са просто зъбни колела в колос, всевиждаща, всенаблюдаваща обществена потисническа екосистема. Виждащото око не просто наблюдава какво правим. Също така тълкува това, което нашите лица твърдят, че казват за нашата лоялност към правителството. Нашите умове също трябва да бъдат изследвани за подобна ужасна причина.

Олеле!

Има и вторична загриженост, която идва от това, макар и може би не толкова трънлива в сравнение с последствията от Големия брат, както вече беше скицирано.

Помислете върху тези два неотложни въпроса:

  • Можем ли надеждно да твърдим, че сканирането на мозъчни вълни може да удостовери вашата лоялност?
  • Можем ли надеждно да твърдим, че сканирането за лицево разпознаване може да удостовери вашата лоялност?

Дръж се, може да крещиш с пълно гърло.

Осъзнавам и признавам, че може да не се интересувате толкова много от аспектите на надеждността сами по себе си. Дали това може да се направи надеждно е по-малко важно от факта, че изобщо се прави. Никой не трябва да бъде под такова наблюдение. Забравете дали технологията работи подходящо за тази задача. Не трябва да се заемаме със задачата в началото.

Във всеки случай, отговорът в момента е категорично не, а именно, че съществуващите AI системи, които правят някакво подобие на „сканиране на мозъчни вълни“ и разпознаване на лица, не са достатъчно способни да направят този скок.

Може би напоследък сте виждали, че някои от производителите на лицево разпознаване са направили известно връщане назад по отношение на това как техните системи за лицево разпознаване се използват. В предстояща публикация в колона ще обсъдя неотдавнашните усилия, например на Microsoft, за да се опита да спре вълната от тези, които използват предоставените от Microsoft инструменти за разпознаване на лица за цели, които далеч надхвърлят това, което технологията може да направи или трябва да се използва за . Може да ви бъде интересен моят по-ранен поглед върху опасенията относно етиката на изкуствения интелект, които вече са широко рекламирани относно разпознаването на лица, вж. връзката тук. Обсъдих и арената на сканирането на мозъчните вълни, вижте дискусията ми на връзката тук.

Накратко, все още няма надеждни или разумни средства, които да предполагат, че сканиране на мозъчни вълни или сканиране за лицево разпознаване може да претендира да изобрази нечия лоялност. Дори предполагаемите основни аспекти, като например дали можете надеждно да свържете тези сканирания с това дали някой е щастлив или тъжен, все още се обсъждат горещо. Опитът да се заложи на нещо толкова аморфно и променливо като лоялността е твърде далече.

Мога да добавя, че някои вярват горещо, че в крайна сметка ще стигнем дотам. Ето защо внимателно се опитах да отбележа, че все още не сме там, вместо да заявя, че никога няма да стигнем до там. Никога не е голяма дума. Трябва да сте абсолютно сигурни, че това ще стане, ако ще се хвърляте никога да бъдат осъществими (като се има предвид, че „никога“ обхваща десетилетия след това, векове след това и хиляди или милиони години след това).

Някои реагираха на новината за това китайско лабораторно изследване като индикатор за това колко опасно светът се насочва към неподходящи и опасни употреби на ИИ. Ще споделя с вас моментално поглед върху това, което представлява AI Ethics. Това ще ви помогне да видите по-ясно защо това конкретно изследване наистина нарушава много, ако не и почти всички общоприети принципи на етичния ИИ.

Вярвате или не, някои предполагат, че може би правим планина от къртичината по отношение на това конкретно изследване.

Ние ли сме?

Контрааргументът е, че къртичината скоро може да се превърне в планина. В пословичната представа за снежна топка, която става все по-голяма и по-голяма, докато се търкаля надолу по заснежен хълм, ние трябва да спрем снежната топка да тръгне. Ако толерираме този тип проучвания, оставяме тази снежна топка да започне своето пътуване. Като говорим открито и призоваваме такива проучвания, може би можем да предотвратим снежната топка.

Едно нещо е сигурно, ние сме на ръба да отворим кутията на Пандора, що се отнася до аспектите на ИИ, и остава въпросът дали можем да предотвратим отварянето на кутията или поне да намерим някакъв начин да се справим разумно с всичко, което излезе след като кутията отприщи дяволското си съдържание.

Ако не друго, да се надяваме, че тези видове медийни бури ще предизвикат широка дискусия за това как ще предотвратим злодеянията, свързани с ИИ, и ще предотвратим множество екзистенциални рискове, предизвикани от ИИ. Трябва да повишим обществената осведоменост относно етиката на ИИ и съображенията, свързани с етиката на ИИ.

Преди да се впуснем в още малко месо и картофи относно дивите и вълнисти съображения, които стоят в основата на тези видове AI системи, нека установим някои допълнителни основи по дълбоко важни теми. Трябва накратко да се потопим в етиката на изкуствения интелект и особено появата на машинното обучение (ML) и дълбокото обучение (DL).

Може би сте наясно, че един от най-силните гласове в наши дни в областта на AI и дори извън областта на AI се състои в настояване за по-голямо подобие на етичен AI. Нека да разгледаме какво означава да се позовава на AI Ethics и Ethical AI. На всичкото отгоре ще проучим какво имам предвид, когато говоря за машинно обучение и задълбочено обучение.

Един конкретен сегмент или част от етиката на AI, който привлича много медийно внимание, се състои от AI, който проявява неблагоприятни пристрастия и неравенства. Може би сте наясно, че когато най-новата ера на AI започна, имаше огромен изблик на ентусиазъм за това, което някои сега наричат AI за добро. За съжаление, по петите на това бликащо вълнение, ние започнахме да ставаме свидетели AI за лошо. Например, различни системи за разпознаване на лица, базирани на AI, бяха разкрити като съдържащи расови пристрастия и пристрастия към пола, които обсъждах в връзката тук.

Усилия за отпор AI за лошо са в ход. Освен гръмогласен правен стремежите да се овладеят неправомерните действия, има и съществен тласък към възприемане на етиката на ИИ, за да се поправи подлостта на ИИ. Идеята е, че трябва да приемем и одобрим ключови етични принципи на AI за разработването и прилагането на AI, като правим това, за да подкопаем AI за лошо и едновременно с това известяване и популяризиране на предпочитаното AI за добро.

Във връзка с това, аз съм привърженик на опитите да се използва AI като част от решението на проблемите с AI, борбата с огъня с огън по този начин на мислене. Можем например да вградим етични компоненти на AI в AI система, която ще следи как останалата част от AI прави нещата и по този начин потенциално улавя в реално време всякакви дискриминационни усилия, вижте дискусията ми на връзката тук. Бихме могли също да имаме отделна AI система, която да действа като вид монитор за AI Ethics. Системата AI служи като надзирател за проследяване и откриване на кога друг AI отива в неетичната пропаст (вижте моя анализ на подобни способности на връзката тук).

След малко ще споделя с вас някои всеобхватни принципи, залегнали в основата на етиката на ИИ. Има много от тези видове списъци, които се носят тук-там. Може да се каже, че все още няма единичен списък с универсална привлекателност и съвпадение. Това е злощастната новина. Добрата новина е, че поне има лесно достъпни списъци за AI Ethics и те обикновено са доста сходни. Всичко казано, това предполага, че чрез някаква форма на обосновано сближаване ние намираме пътя си към общата общност на това, от което се състои етиката на ИИ.

Първо, нека разгледаме накратко някои от общите етични предписания за AI, за да илюстрираме какво трябва да бъде жизненоважно съображение за всеки, който изработва, използва или използва AI.

Например, както се посочва от Ватикана в Рим призовава за етика на ИИ и както разгледах задълбочено в връзката тук, това са техните идентифицирани шест основни етични принципа на ИИ:

  • Прозрачност: По принцип системите с изкуствен интелект трябва да бъдат обясними
  • включване: Нуждите на всички човешки същества трябва да бъдат взети под внимание, така че всеки да може да се възползва и на всички индивиди да могат да бъдат предложени най-добрите възможни условия за изразяване и развитие
  • Отговорност: Тези, които проектират и внедряват използването на AI, трябва да продължат с отговорност и прозрачност
  • Безпристрастност: Не създавайте и не действайте според пристрастия, като по този начин защитавате справедливостта и човешкото достойнство
  • Надеждност: Системите с изкуствен интелект трябва да могат да работят надеждно
  • Сигурност и поверителност: Системите за изкуствен интелект трябва да работят сигурно и да зачитат поверителността на потребителите.

Както се посочва от Министерството на отбраната на САЩ (DoD) в техния Етични принципи за използването на изкуствен интелект и както разгледах задълбочено в връзката тук, това са техните шест основни етични принципа на ИИ:

  • Отговорност: Персоналът на DoD ще упражнява подходящи нива на преценка и грижа, като същевременно остава отговорен за разработването, внедряването и използването на способностите за изкуствен интелект.
  • Справедливо: Отделът ще предприеме съзнателни стъпки, за да сведе до минимум непреднамерените пристрастия в способностите на ИИ.
  • Проследим: Способностите на отдела за изкуствен интелект ще бъдат разработени и разгърнати така, че съответният персонал да притежава подходящо разбиране за технологията, процесите на разработка и оперативните методи, приложими към способностите на AI, включително прозрачни и подлежащи на одит методологии, източници на данни и процедури за проектиране и документация.
  • Надежден: Възможностите за изкуствен интелект на отдела ще имат изрични, добре дефинирани употреби, а безопасността, сигурността и ефективността на тези способности ще подлежат на тестване и гарантиране в рамките на тези дефинирани употреби през целия им жизнен цикъл.
  • Управляем: Отделът ще проектира и проектира способности за изкуствен интелект за изпълнение на предназначените им функции, като същевременно притежава способността да открива и избягва непредвидени последици, както и способността да изключва или деактивира разгърнати системи, които демонстрират непреднамерено поведение.

Обсъдих също различни колективни анализи на етичните принципи на ИИ, включително обхващането на набор, разработен от изследователи, които изследваха и уплътниха същността на множество национални и международни етични принципи на ИИ в документ, озаглавен „Глобалният пейзаж на етичните насоки за ИИ“ (публикуван в природа), и че моето покритие изследва в връзката тук, което доведе до този списък с ключови камъни:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Както може директно да се досетите, опитите за определяне на спецификата, залегнали в основата на тези принципи, могат да бъдат изключително трудни. Още повече, че усилията да се превърнат тези широки принципи в нещо напълно осезаемо и достатъчно подробно, за да бъдат използвани при изработването на AI системи, също е твърд орех. Като цяло е лесно да махнете с ръка за това какви са предписанията за етика на ИИ и как те трябва да се спазват като цяло, докато е много по-сложна ситуация в кодирането на ИИ, което трябва да бъде истинската гума, която отговаря на пътя.

Принципите на етиката на AI трябва да се използват от разработчиците на AI, заедно с тези, които управляват усилията за разработване на AI, и дори тези, които в крайна сметка работят и извършват поддръжка на AI системи. Всички заинтересовани страни през целия жизнен цикъл на разработка и използване на ИИ се разглеждат в рамките на спазването на установените норми на Етичния ИИ. Това е важен акцент, тъй като обичайното допускане е, че „само кодери“ или тези, които програмират ИИ, са обект на придържане към понятията за етиката на ИИ. Както беше посочено по-рано, е необходимо село, за да се изработи и приложи AI, и за което цялото село трябва да бъде запознато и да спазва етичните предписания на AI.

Нека също така се уверим, че сме на една и съща страница относно естеството на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Нека се върнем към нашия фокус върху системите с изкуствен интелект, които се използват за неподходящи или евентуално откровени неправомерни цели и как това е свързано с наскоро публикуваното проучване за лоялността на ККП.

Две основни съображения идват на ум:

1) Този екземпляр на AI е част от по-голям продължаващ модел на смущаваща употреба на AI и следователно зловещ и отварящ очите за това, което се случва

2) Котката може да бъде пусната от торбата, така че ако AI като този бъде приет в една страна, той може лесно да се разпространи и в други страни

Започнете с първата точка за това, че този екземпляр на AI е част от текущ модел.

Една изключително важна основа за това да бъдем особено обезпокоени от това конкретно проучване е, че то е част от по-голям модел на начина, по който AI се стреми да бъде използван от някои. Ако това беше единственото такова изследване, провеждано някога, можеше да сме леко развълнувани от него. Въпреки това вероятно няма да отекне с такъв плам, какъвто виждаме сега.

Това може би е капка-капка на приближаване към нещо, което ще излезе извън контрол.

Както се съобщава в новините, Китай е добре известен с това, че настоява за изключителна лоялност към ККП. Освен това са създадени или се създават различни средства, за да се гарантира, че хората са индоктринирани в правителствената доктрина. Има цитирани случаи на предишни проучвания, които се стремят да разработят AI алгоритми, които биха могли да преценят мисловните състояния на членовете на партията (вижте подкрепяния от Китай Време за учене през 2019 г., който спомена тези усилия).

Може би си спомняте, че през 2018 г. вицепрезидентът Майк Пенс изнесе реч в института Хъдсън и подчерта, че „управляващите в Китай имат за цел да приложат оруелска система, основана на контролирането на почти всеки аспект от човешкия живот“ (това беше препратка към прилагането на ККП на социална система за кредитен рейтинг, тема на известни противоречия). Можете лесно да твърдите, че това скорошно проучване на ККП е още една стъпка в тази посока.

Не знаем кога и дали последната капка ще счупи гърба на камилата, така че тези еднократни проучвания да бъдат превърнати в широко разпространени системи за наблюдение, базирани на AI.

Вторият момент, който заслужава внимание, е, че не можем да предположим, че този тип ИИ ще бъде ограничен само до Китай. По същество, въпреки че използването на този тип AI в Китай, което може да стане широко разпространено, само по себе си е обезпокоително, други страни може да направят същото.

След като се каже, че изкуственият интелект за това е готов за най-доброто време, вероятно няма да отнеме много на другите страни да решат, че искат да го внедрят също. Котката ще излезе от торбата. Някои държави вероятно ще използват този ИИ по откровено потиснически начини и няма да се опитват да предложат никакви претенции за това. Други страни изглежда могат да се стремят да използват този тип ИИ за цели, които изглеждат полезни, от което в крайна сметка има недостатък, който ще бъде почти неизбежен.

Всъщност твърдението, че този тип изкуствен интелект може би ще бъде възприет едва след като бъде видян като готов за най-доброто време, е малко погрешно. Може да няма никаква разлика дали AI може да работи сигурно по този начин. AI може да се използва като прикритие, вижте моето обяснение на връзката тук. Независимо от това, което AI действително може да постигне, идеята е, че AI може да бъде удобен претенция за извеждане на мониторинг на населението и схеми за измерване и осигуряване на абсолютна лоялност към властите.

В този момент от тази тежка дискусия, бих се обзаложил, че желаете някои илюстративни примери, които биха могли да покажат тази тема. Има специален и със сигурност популярен набор от примери, които са ми близки. Виждате ли, в качеството ми на експерт по ИИ, включително етичните и правните последици, често ме молят да посоча реалистични примери, които показват дилемите на етиката на ИИ, така че донякъде теоретичният характер на темата да може да бъде схванат по-лесно. Една от най-впечатляващите области, които ярко представят това етично затруднение с AI, е появата на базирани на AI истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Дали появата на истински самоуправляващи се автомобили, базирани на AI, осветлява нещо относно злоупотребите с AI и ако да, какво показва това?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, при които AI управлява автомобила изцяло сам и няма никаква човешка помощ по време на задачата за шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква от водач човек да споделя усилията за шофиране, обикновено се разглежда на ниво 2 или ниво 3. Автомобилите, които споделят задачата за шофиране, са описани като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​ADAS (Разширени системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5 и ние все още дори не знаем дали това ще бъде възможно да се постигне, нито колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и злоупотреба с AI

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Надявам се, че това предоставя достатъчен набор от предупреждения, които да залегнат в основата на това, което ще разкажа.

Нека скицираме сценарий за самоуправляваща се кола, която може да използва AI по схематични или погрешни начини.

Ще споделя с вас някои разклонения на самоуправляващи се автомобили, базирани на изкуствен интелект, които може да ви накарат да потръпнете и да се обезпокоите. Това са аспекти, които в момента почти никой не обсъжда. Многократно повдигах въпроса, макар че открито признавам, че докато не възприемем преобладаващо самоуправляващите се автомобили, няма да получим много притеснение относно това, че обществото се тревожи или разстройва от това, което днес изглежда като просто абстрактни понятия .

Готови ли сте?

Ще започнем с полагането на някаква основа.

Базираните на AI самоуправляващи се автомобили ще бъдат оборудвани с видеокамери, което е разумно. Това позволява на самоуправляващата се кола да получава видео изображения на сцената на шофиране. На свой ред системата за шофиране с изкуствен интелект, която работи на борда на компютрите в самоуправляващата се кола, има за цел да изследва изчислително събраното видео и да разбере къде е пътят, къде са колите наблизо, къде са пешеходците и т.н. Осъзнавам, че рецитирам 101 основи на самоуправляващите се автомобили.

Има видеокамери, монтирани от външната страна на автономното превозно средство и те са насочени навън. Освен това, като цяло, можете да очаквате, че ще има видеокамери върху или вътре в автомобила, насочени навътре към вътрешността на самоуправляващия се автомобил. Защо така? Лесно, защото ще има много важни приложения за видеозаснемане на случващото се вътре в автономното превозно средство.

Когато отидете да се возите в самоуправляваща се кола, вече не е необходимо да сте шофьор. Какво ще правите тогава, докато сте в самоуправляваща се кола?

Едно нещо, което можете да направите, е да общувате с другите у дома или в офиса. Ето ви, на път за работа, което ще каже, че отделете един час време за шофиране със самоуправляващата се кола, и вече можете да започнете работния си ден, като направите подобна на Zoom онлайн интерактивна сесия в реално време. Те могат да ви видят, благодарение на камерите, насочени навътре към самоуправляващата се кола. Можете да ги видите на вероятно LED екран в самоуправляващата се кола. В края на деня, докато се прибирате вкъщи, можете да направите подобна интерактивна видео дискусия с децата си, тъй като те започват да пишат домашните си за вечерта.

Друга употреба би била за вземане на уроци. Сега, когато не е нужно да губите времето си в шофиране, можете да превърнете това безизходно време в самоуправляваща се кола в подобряване на вашите умения или получаване на сертификат или степен. Чрез камерите, насочени навътре, вашият инструктор може да ви види и да обсъдите как протича вашето обучение.

Още една употреба би била да се опитаме да гарантираме, че ездачите в самоуправляващи се автомобили няма да се развихрят. В автомобил, управляван от хора, водачът е възрастен, който обикновено не позволява на водачите да правят странни неща, като например маркиране на интериора с графити. Какво ще се случи със самоуправляващите се автомобили, базирани на AI? Някои се притесняват, че ездачите ще изберат да разкъсат интериора на превозните средства. За да се опита да предотврати това, фирмата за споделено пътуване, която внедрява самоуправляващите се автомобили, вероятно ще използва насочени навътре видеокамери, за да наблюдава какво правят хората, докато са вътре в автономното превозно средство.

Предполагам, че сте убедени, че ще имаме видеокамери, които са насочени към интериора на самоуправляващите се автомобили, в допълнение към камерите, които са насочени навън, за да различат сцената на шофиране.

Вече сте готови за това, което наричам блуждаещо око, вижте моя анализ на връзката тук.

Първо, помислете за видеокамерите, които са насочени навън.

Където и да отиде самоуправляващата се кола, тя потенциално ще може да записва видео каквото видят камерите. Самоуправляваща се кола, която извежда някого от дома му и го отвежда до магазина за хранителни стоки, ще пресича квартал и видеото ще записва не само пътя, но и всичко останало, което се случва в полезрението. Баща и син си играят в предния двор. Семейство, седнало на предната веранда. Продължава и продължава.

В момента имаме толкова малко самоуправляващи се автомобили по обществените пътища, че тази възможност за заснемане на видео на ежедневните дейности е сравнително оскъдна и несъществена.

Представете си, че в крайна сметка ще постигнем безопасни и широко разпространени самоуправляващи се автомобили. Хиляди от тях. Може би милиони. Днес в САЩ имаме около 250 милиона коли, управлявани от хора. В крайна сметка те ще бъдат до голяма степен заменени от самоуправляващи се автомобили или просто вече няма да се използват и ще имаме предимно самоуправляващи се автомобили по нашите пътища. Тези самоуправляващи се автомобили се управляват от AI и като такива могат да се движат по същество 24×7. Без почивки, без почивки за баня.

Видео данните могат да бъдат качени от тези самоуправляващи се автомобили чрез OTA (Over-The-Air) електронни мрежови връзки. Самоуправляващите се автомобили ще използват OTA, за да изтеглят най-новите софтуерни актуализации на AI в автомобила. В допълнение, OTA може да се използва за качване на данни от самоуправляващата се кола в облачна база данни.

Всичко казано, би било възможно да се съединят тези качени данни. С шевовете потенциално бихте могли да съберете ежедневните идвания и заминавания на всеки, който е излязъл навън в който и да е ден във всяка местност, която широко използва самоуправляващи се автомобили.

Това е блуждаещото око, за което предупреждавах.

Сега можем да съчетаем проучването на ККП с този вид способности. Да предположим, че едно правителство има достъп до всички тези събрани видео данни. След това те биха могли да използват базиран на изкуствен интелект алгоритъм за разпознаване на лица, за да установят къде сте отишли, по кое време на деня по време на ежедневните си пътувания в живота. В допълнение, те вероятно биха могли да използват своя анализатор, базиран на „лоялност“, за да видят дали изглеждате да имате лоялен вид на лицето си или не.

Само си представете, че във вторник следобед се разхождате, за да си вземете сандвич в местна закусвалня. По платното минаваха самоуправляващи се автомобили. Всички многобройни видеоклипове ви заснеха, докато правите петминутната си разходка, за да хапнете. Данните бяха качени в централизирана база данни. Правителството стартира своята програма за лицево разпознаване с изкуствен интелект върху данните.

Оказва се, че изкуственият интелект е „определил“, че сте имали нелоялен вид на лицето си.

Може би този нелоялен поглед се случи само за миг. Чакахте на ъгъла на улицата да се смени светлината, за да можете да пресечете улицата до закусвалнята. В този момент изпитахте леко потрепване на отвращение, че трябваше да чакате прекалено дълго за символа Разходка. Може би това беше индикация за вашата нелоялност към правителството?

Да, изкуственият интелект изчисли, че сте били изключително нелоялни в този момент във времето. Когато се приберете у дома онази вечер, правителството е уредило ареста ви.

Но чакайте, има още.

Не забравяйте, че видеокамерите също са насочени навътре.

В същия този вторник, докато пътувахте за работа със самоуправляваща се кола, видеокамерите запечатваха всеки ваш момент. Това беше качено в централизирана база данни. Софтуерът с изкуствен интелект, който анализира моделите на лицето за нелоялност, направи изчислителен преглед на модела на вашите изражения на лицето по време на пътуването до офиса.

В един момент небрежно гледахте извън автономното превозно средство и забелязахте строителен работник, който блокираше частично пътното платно и накара системата за шофиране с изкуствен интелект да забави самоуправляващата се кола. За части от секундата на лицето ви се изписа насмешка за този строителен работник, който забавя движението.

Анализът на лицето с изкуствен интелект тълкува това като знак за нелоялност към правителството.

Два удара срещу вас в един ден.

Живеете върху тънък лед.

Разбира се, дали AI е „правилен“ или „грешен“ за това, че може да определи вашата лоялност, е почти без значение в този контекст. Същността е, че AI е въведен за тази цел. Хората, които внедряват AI, може или не може да се интересуват дали AI е от някаква подходяща употреба за този тип задачи. AI позволява правителствен контрол, независимо от самата технологична валидност.

Това покрива сканирането на лицето.

Ако в крайна сметка имаме някакъв вид преносими рентабилни устройства за извършване на (предполагаемо) сканиране на мозъчни вълни, това със сигурност може да бъде включено и в самоуправляващите се автомобили. Видеокамерите вече са сигурно нещо. Възможността за разполагане на устройства за сканиране на мозъчни вълни от този калибър не е в картите в момента, но очевидно е нещо, което се предвижда за бъдещето.

За моето изследване на това как едно правителство може да се опита да поеме населението, като грабне контрола върху самоуправляващите се автомобили, вж. връзката тук. Съществува подобна възможност злонамерен играч да се опита да направи същото, вижте връзката тук. Те не са предназначени да бъдат сплашващи тактики по отношение на отразяването на тези свързани теми, а вместо това, насочване към важността на киберсигурността и други предпазни мерки, които като общество трябва да се стремим да предприемем по отношение на появата на повсеместни самоуправляващи се автомобили и други автономни превозни средства.

Заключение

Бих искал набързо да покрия един допълнителен аспект относно AI, използван за установяване на лоялност, който според мен е малко отделна тема, но която някои туитове и социални медии обсъждат.

По-рано споменах, че нямаме разумен AI и не знаем дали и кога ще го имаме. Нека се забавляваме с идеята, че ще имаме разумен ИИ. В такъв случай разгледайте следния сценарий.

Ние чрез несъзнателен AI избираме да въведем широко разпространено използване на AI, което установява изчислително дали хората са лоялни към своето правителство, използвайки сканиране на лица, сканиране на мозъчни вълни и т.н. Това е изцяло управлявано от и използвано от хора с власт. Това е смущаващият сценарий, който описах преди малко.

Време е да вдигнем залога.

AI става разумен. Сега потенциално сме предоставили на този разумен ИИ широко разпространена способност за вероятно идентифициране на лоялност и нелоялност у хората. Зъл AI, който обмисля да унищожи хората, може да използва тази способност, за да реши, че наистина хората ще бъдат нелоялни и трябва да бъдат унищожени изцяло. Или може би само тези хора, които демонстрират индикация за нелоялност чрез лицето или мислите си, трябва да бъдат особено бракувани.

Друг ъгъл е, че ИИ иска да пороби хората, вижте дискусията ми на връзката тук.

Изглежда, че сме дали на ИИ перфектен подарък за извършването на това търсене. Съществуващата инфраструктура, която въвеждаме, позволява на ИИ да наблюдава внимателно нас, хората. Онези, които изглежда са изразили нелоялна лицева индикация или са мислили за AI господаря(ите), ще почувстват гнева на AI.

Осъзнавам, че казах, че това е повишаване на залога. Не съм сигурен, че е така. Струва ми се, че независимо дали имаме AI господари, които директно решават съдбата ни срещу човешки господари, които вероятно използват AI система, за да определят лоялността, е, нито едно предложение не изглежда особено желателно.

Последен коментар засега.

Римският учен и философ Марк Тулий Цицерон заявява, че няма нищо по-благородно, нищо по-почтено от лоялността. Може да позволим на AI да ни изпревари и да се превърне в инструмент за привличане и осигуряване на „лоялност“ с ужасни средства.

Заслужаваща внимание причина да поставите AI Ethics на върха на нашия списък със задачи.

Източник: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- атестация-която-може-да-предвещава-потискащи-автономни-системи/