Етика на ИИ и индуцирана от ИИ психологическа инокулация за подпомагане на хората с дезинформация

Какво ще правим с огромното пренасищане с дезинформация и дезинформация?

Всичко видимо става все по-зле и по-зле с всеки изминал ден.

Може би изкуственият интелект (AI) може да ни помогне. Да, точно така, може да успеем да използваме полезните употреби на ИИ, за да се справим с нашето безмилостно цунами от дезинформация и дезинформация. Може да е разумно да опитаме да го направим. Всеки път на потенциално решение изглежда достоен за преследване.

Настрана, бих искал незабавно да призная и да отбележа, че AI несъмнено ще Също бъди и ти част от проблема. Няма съмнение, че хората могат лесно да използват AI, за да генерират дезинформация и дезинформация. Освен това AI може коварно да се използва, за да направи дезинформацията и дезинформацията да изглеждат удивително валидни и да заблуди хората да повярват, че представената информация е съблазнително точна и фактическа. Определено тъжна лицева страна на това, което AI предлага на масата. Ще се върнем към тази главоблъсканица към края на тази дискусия.

Засега нека сложим нашите усмихнати лица и да проучим как AI е полезен за поставяне на дезинформация и дезинформация на могъщите си колене. Едно важно скрито течение ще бъде, че всичко това се вписва в жизненоважни елементи на етиката на ИИ. Моето отразяване в колоната на AI Ethics и Ethical AI е непрекъснато и обширно, включително връзката тук намлява връзката тук, Само за да назовем няколко.

Помислете за тези крайъгълни начини, по които AI може да бъде особено полезен съюзник във войната срещу дезинформацията и дезинформацията:

  • Спри на тръгване: AI може да се използва за откриване и опит за отстраняване на дезинформация и дезинформация, преди да се разпространи
  • Филтриране преди гледане: AI може да се използва за филтриране на дезинформация и дезинформация, така че да не е нужно да се притеснявате, че ще я видите
  • Подгответе се да бъдете имунизирани: AI може да се използва за укрепване на вашата готовност и способност да се борите с дезинформация и дезинформация (донякъде официално известна като предоставяне на вид психологическа ваксинация)
  • Други

Първият изброен куршум включва опит за спиране на дезинформацията и дезинформацията във възможно най-ранния момент, преди съдържанието да стигне до света.

Това е много проблематичен подход. Някои биха възразили гръмогласно, че това може да е опит на Big Brother да потисне свободата на словото. Колко далеч би могъл да стигне този AI? Може ли да попречи на хората да изразяват свободно възгледите си? Това зловещо може да се превърне в хлъзгав наклон на ИИ, който в крайна сметка да се превърне в най-лошия кошмар от зли резултати, които невинно са започнали с най-добри намерения.

Сигурен съм, че разбирате картината.

Вторият куршум е малко по-умерен и предполага, че можем да използваме AI за филтриране на съдържание вместо нас.

Може да имате филтърен бот с изкуствен интелект, който ще сканира всичките ви входящи емисии с данни от различни новини и други източници. AI е пригоден да улавя всяка дезинформация или дезинформация, която отговаря на вашите лични критерии. По този начин, при такъв сценарий, това не е ситуация на цензура от Big Brother. Вие контролирате AI и как той филтрира вашата истинска входяща кутия с информация от ваше име.

Звучи доста добре.

Има обаче някои забележителни опасения.

Например, ние вече сме силно поляризирани във възгледите си и това използване на AI може да направи тази поляризация по-дълбока и по-тъмна. Представете си, че с този хитър AI, който работи без прекъсване 24×7, никога няма да се наложи да видите частица информация, която сте класифицирали като потенциално дезинформация и дезинформация. Вече е почти гарантирано, че вашата поляризирана перспектива ще остане непокътната. През целия ден и винаги, когато търсите да погледнете информацията, която очаква вашето внимание, тя винаги е напълно предварително избрана и няма шанс да погледнете така наречената дезинформация и дезинформация.

Казвам, че може да има дезинформация и дезинформация така наречен защото има огромно количество спорове относно това какво всъщност представлява дезинформация и дезинформация. Някои експерти настояват, че има абсолютна основа за установяване на това кое е дезинформация и кое е дезинформация. Има правилно и грешно. Всичко може да се изчисли, без да се заблуждава, че нещо е или дезинформация, или дезинформация.

Не всеки вижда нещата като толкова ясни.

Пословичният взаимно изключващ се дихотомичен контраст „включване или изключване“ се смята за подвеждаща нагласа. Дезинформацията на едно лице може да не се счита за дезинформация за друго лице. По същия начин за дезинформацията. Твърдението е, че дезинформацията и дезинформацията варират по отношение на природата и мащаба. Опитът да се класифицира окончателно цялата информация в една или друга купчина е много по-трудно, отколкото предполага размахването на ръка.

Същността е, че вторият куршум относно използването на AI като механизъм за филтриране има своите компромиси. Няма съмнение, че изкуственият интелект ще се използва все повече за тази цел. В същото време трябва да имаме предвид предизвикателствата, които подобен ИИ ще изведе на преден план. AI като филтър за дезинформация и дезинформация не е някакъв сребърен куршум или забиване.

Това ни отвежда до третата точка, а именно възможността да използваме AI, за да направим хората по-добри в справянето с дезинформация и дезинформация.

Съмнявам се, че вероятно сте чували много за този трети път за използване на AI в този контекст. Тепърва започва да се появява. Сега сте на върха на нещо, което вероятно ще се развие и постепенно ще бъде пуснато в употреба. Моля, имайте предвид обаче, че с нарастването на тази популярност споровете дали това е подходящ подход също ще станат много видими.

Част от проблема е, че AI донякъде се използва за това, което някои биха нарекли унизително играейки мисловни игри с хора.

Това изглежда зловещо.

Това също ни отвежда до царството на AI етиката.

Всичко това също се отнася до трезво възникващите опасения относно днешния AI и особено използването на машинно обучение и дълбоко обучение като форма на технология и как се използват. Виждате ли, има употреби на ML/DL, които са склонни да включват AI да бъде антропоморфизиран от широката общественост, вярвайки или избирайки да приеме, че ML/DL е или чувствителен AI, или близо до (не е). В допълнение, ML/DL може да съдържа аспекти на съпоставяне на изчислителни модели, които са нежелателни или напълно неправилни, или незаконни от етична или правна гледна точка.

Може да е полезно първо да изясня какво имам предвид, когато говоря за AI като цяло, и също така да дам кратък преглед на машинното обучение и дълбокото обучение. Съществува голямо объркване по отношение на това какво означава изкуствен интелект. Бих искал също така да ви представя предписанията на етиката на ИИ, които ще бъдат особено неразделна част от останалата част от този дискурс.

Посочване на записа за AI

Нека се уверим, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен.

Ние нямаме това.

Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем съзнателен ИИ, нито дали съзнателният ИИ ще възникне по някакъв чудотворен начин спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана Сингулярността, вижте моето отразяване на връзката тук).

Осъзнайте, че днешният изкуствен интелект не е в състояние да „мисли“ по никакъв начин, равен на човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че те са изчислителни и им липсва човешко познание. Най-новата ера на AI широко използва машинно обучение и задълбочено обучение, които използват съвпадение на изчислителни модели. Това доведе до AI системи, които изглеждат като човешки склонности. Междувременно днес няма изкуствен интелект, който да има подобие на здрав разум, нито когнитивното чудо на здравото човешко мислене.

Част от проблема е нашата тенденция да антропоморфизираме компютрите и особено ИИ. Когато изглежда, че компютърна система или AI действа по начини, които свързваме с човешкото поведение, има почти непреодолимо желание да се припишат човешки качества на системата. Това е често срещан умствен капан, който може да хване дори най-непреклонния скептик относно шансовете за достигане на разум.

До известна степен това е причината етиката на ИИ и етичният ИИ да е толкова важна тема.

Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на мислене относно етиката на ИИ и правенето на това неразделна част от разработването и прилагането на ИИ е от жизненоважно значение за създаването на подходящ ИИ, включително оценката на начина, по който етиката на ИИ се приема от фирмите.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства. Вижте например моето отразяване на връзката тук.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ. Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, са обект на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Нека да запазим нещата на земята и да се съсредоточим върху днешния изчислителен несъзнателен ИИ.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Вярвам, че вече съм подготвил основата за достатъчно обсъждане на ролята на ИИ като средство за бързо психологическо ваксиниране, свързано със справянето с дезинформация и дезинформация.

Навлизане в съзнанието на хората

Нека започнем с основите или основите, които са в основата на дезинформацията и дезинформацията.

Като цяло дезинформацията се отнася до невярна или подвеждаща информация.

Дезинформацията е приблизително същата, но се състои от добавен елемент на намерение. Обикновено тълкуваме информацията като дезинформация, когато тя е самата информация предназначено да дезинформират.

Може да ви кажа, че в момента е 10 часа през нощта, което да кажем, че е невярно, защото часът наистина е полунощ. Ако ви бях казал 10 часа като предчувствие и не се опитвах да бъда измамен, обикновено щяхме да кажем, че съм ви информирал погрешно. Бях предал дезинформация. Може би бях мързелив или може би наистина вярвах, че е 10 часа. От друга страна, ако споменах 10 часа, защото умишлено исках да ви подведа да мислите, че часът е 10 часа и че знаех, че часът всъщност е полунощ, това може да се каже, че е форма на дезинформация .

Един забележителен аспект на информацията като цяло е, че обикновено ние сме в състояние да разпространяваме информация и по този начин информацията може да стане донякъде широко разпространена. Информацията наистина може да тече като вода в широк смисъл.

Казвам ви, че е 10 часа през нощта. Вече разполагате с тази конкретна информация. Може да извикате на глас на група хора наблизо, че е 10 часа през нощта. Сега те също имат същата информация. Може би някои от тези хора се качват на мобилните си телефони и се обаждат на други хора, за да им кажат, че е 10 часа. Като цяло информацията може да се разпространява или споделя и понякога се прави толкова бързо, докато в други случаи се прави толкова бавно.

В известен смисъл можете да твърдите, че информацията може да стане вирусна.

Има измислена дума или терминология, която може да не сте виждали или използвали особено, която помага да се опише този феномен на информация, която става вирусна, думата е инфодемия. Тази дума е комбинация от информация и епидемия. Като цяло инфодемията се свързва с обстоятелства, включващи разпространение на дезинформация или дезинформация. Идеята е, че невярната или подвеждаща информация може да стане вирусна, нежелателно, подобно на нежеланото разпространение на болест или болести.

В примера за времето, което е 10 часа през нощта, този привиден факт е част от информацията, която е била разпространена до близката група хора. Те от своя страна разпространяват факта сред другите. Ако 10 часа беше фалшив, тогава този конкретен случай на дезинформация или дезинформация беше разпространен сред много други. Те може да не знаят, че информацията е дезинформация или евентуално дезинформация.

Вярвам, че всички тези дефиниции и основи изглеждат разумни и вие сте на борда досега.

Страхотно, да продължим.

Донякъде тайно ви въведох в нещо, което предизвиква голямо очарование, а също и тревога. Същността е, че вероятно има разумни паралели между това, което болестите причиняват вирусно и какво дезинформацията или дезинформацията причиняват вирусно.

Не всички са съгласни с тези твърдяни паралели. Въпреки това те са интригуващи и заслужават внимание.

Позволете ми да обясня подробно.

Виждате ли, можем да се опитаме да използваме удобната аналогия за позоваване на болести, пренасяни от човека, и болести, които се разпространяват, като правим това, за да сравним подобна възможност с разпространението на дезинформация и дезинформация. За да се опитаме да спрем разпространението на болести, можем да се стремим към ранно откриване и да се стремим да ограничим нововъзникващ болен източник, като посочим потенциалното разпространение на болестта. Друг подход за справяне с разпространяваща се болест би бил да се предпазите от заразяване чрез разумно използване на маска или защитно оборудване. Третият подход може да се състои от ваксиниране, за да се опитате да изградите своя имунитет, свързан с болестта.

Вече извървяхме пълен кръг, тъй като същите тези подходи за справяне с болестите могат изрично да бъдат оприличени на справяне с дезинформация и дезинформация. По-рано споменах, че се полагат подобни усилия за използване на изкуствен интелект за целите на опитите за справяне с дезинформацията и дезинформацията, по-специално (както беше споменато по-рано):

  • Спри на тръгване: AI може да се използва за откриване и опит за отстраняване на дезинформация и дезинформация, преди да се разпространи
  • Филтриране преди гледане: AI може да се използва за филтриране на дезинформация и дезинформация, така че да не е нужно да се притеснявате, че ще я видите
  • Подгответе се да бъдете имунизирани: AI може да се използва за укрепване на вашата готовност и способност да се борите с дезинформация и дезинформация (донякъде официално известна като предоставяне на вид психологическа ваксинация)
  • Други

Третият аспект ще бъде от най-голям интерес тук.

Ето сделката.

Знаем, че болестите обикновено поразяват човешкото тяло. С аналогията с това как се появяват дезинформацията и дезинформацията, можем да предположим, че грешната информация удря човешкия ум. Да, вероятно можете да влезете в контакт с дезинформация или дезинформация, която се влива в ума ви. Дезинформацията или дезинформацията потенциално корумпира или отравя начина ви на мислене.

Човешкото тяло може да бъде ваксинирано, за да се опита да се подготви за контакт с болести. Възниква голям въпрос дали можем да направим същото за човешкия ум. Възможно ли е да опитате и да ваксинирате ума, така че когато дезинформация или дезинформация дойде в ума ви, да сте готови за това и да сте били ваксинирани съответно?

Област на изследване, известна като психологическа инокулация постулира, че умът наистина може да бъде ваксиниран в смисъл да бъде готов да се справи с дезинформация или дезинформация.

Помислете за това описание в скорошно изследователско проучване относно психологическата инокулация и това, което понякога се определя като правене prebunking:

  • „Развенчаването на дезинформация също е проблематично, тъй като коригирането на дезинформация не винаги анулира напълно нейните ефекти, феномен, известен като ефект на продължаващо влияние. Съответно, за разлика от развенчаването, предварителното разобличаване придоби известност като средство за превантивно изграждане на устойчивост срещу очаквано излагане на дезинформация. Този подход обикновено се основава на теорията за инокулацията. Теорията на инокулацията следва медицинска имунизационна аналогия и постулира, че е възможно да се изгради психологическа съпротива срещу нежелани опити за убеждаване, подобно на това, че медицинските инокулации изграждат физиологична резистентност срещу патогени” (Наука Авансите, 24 август 2022 г., „Психологическата инокулация подобрява устойчивостта срещу дезинформация в социалните медии“ от съавторите Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje и Stephan Lewandowsky).

Връщайки се към моя пример за времето, което е 10 часа през нощта, да предположим, че преди това ви бях казал, че понякога заявеното време не е действителното време. Отсега нататък имате форма на ваксинация, за да внимавате за заявените времена. Тази ваксинация ви е подготвила за контакт с твърдяните времена, които са дезинформация или дезинформация.

Ако ви бях предупредил преди няколко години, че заявените времена не са действителни времена, има шанс да не се сетите за това отдавнашно предупреждение. По този начин, по-ранната инокулация е (да кажем) изхабена. Моята ваксинация за вас може да се наложи да бъде подсилена.

Освен това има вероятност ваксинацията да не е достатъчно специфична, за да я използвате, когато е необходимо. Ако преди години ви бях предупредил за заявените времена спрямо действителните времена, това може да е твърде широко. Инокулацията може да не работи в конкретния случай, когато ви кажат около 10 часа. В този смисъл, може би моята ваксинация трябваше да бъде, че трябва да внимавате, когато се използва заявено време от 10 часа. Разбира се, ваксинациите в случай на заболявания са донякъде еднакви, понякога са много специфични за известни заболявания, докато в други случаи са с широк спектър.

Често цитирано изследване, направено през 1961 г. върху психологическата инокулация от Уилям Макгуайър от Колумбийския университет, обикновено се смята за класика в тази област на изследване. Може да се окажете интересни тези ключови моменти, които той направи по това време:

  • „Такава генерализирана имунизация може да произтича от един от двата механизма. Предварителната експозиция може да шокира човека да осъзнае, че „истините“, които винаги е приемал, наистина са уязвими, като по този начин го провокира да развие защита на своето убеждение, в резултат на което той е по-устойчив на силните контрааргументи, когато идват. Алтернативно, опроверженията, включени в предварителното излагане, могат да направят всички представени впоследствие контрааргументи срещу вярата да изглеждат по-малко впечатляващи” (Уилям Макгуайър, „Съпротива срещу убеждаването, предоставена от активно и пасивно предишно опровержение на същите и алтернативни контрааргументи”, Journal of Abnormal and Социална психология, 1961).

Смятате ли тази аналогия на ваксинациите и имунизацията за полезно и подходящо сравнение с царството на дезинформацията и дезинформацията?

Някои го правят, други не.

За целите на тази дискусия, моля, приемете, че предпоставката е разумна и подходяща.

Как да се опитаме да ваксинираме или имунизираме умовете на хората?

Можем да накараме хората да четат книги, които могат да просветят умовете им. Може да им кажем за това или да ги накараме да гледат видеоклипове или да слушат аудио касети. и т.н.

И можем да използваме AI, за да направим същото.

Може да бъде създадена AI система, която да бъде вашият инокулатор. Всеки път, когато започнете да влизате онлайн, като например гледате в Интернет, базирано на AI приложение може да ви подготви за вашето онлайн пътуване. AI може да ви даде малко количество дезинформация, което е етикетирано като такова, което ви позволява да осъзнаете, че сте на път да видите нещо, което умишлено е невярно.

При излагане на тази подхранвана от изкуствен интелект дезинформация, умът ви сега се подготвя да се справи с дезинформация или дезинформация, които може да срещнете в дивата природа в Интернет. Умът ви е подготвен. Ето, виждате блог в интернет, който предлага твърдения факт, че извънземни същества от Марс вече са тук на земята и се крият на видно място, но тази привидна дезинформация или дезинформация лесно се отхвърля от вашия ум поради предшестващото ваксиниране (добре, от друга страна, може би е вярно и те наистина са тук!).

Както и да е, надявам се, че сега сте в състояние да разберете как изкуственият интелект може да помогне за ваксиниране или имунизиране на хората по отношение на дезинформация или дезинформация.

Създават се различни AI приложения, които ще действат като инокулатори на дезинформация или дезинформация. AI може да се стреми да осигури инокулация, която е широка и осигурява цялостно подобие на имунизация. AI може да бъде създаден и за по-специфични форми на инокулация. Освен това AI може да работи на персонализирана основа, която е настроена според вашите конкретни нужди или интереси. Усъвършенстваният AI в това пространство също ще се опита да определи вашето ниво на толерантност, степен на умствено усвояване, капацитет за задържане и други фактори, когато композирате и представяте така наречените имунизационни снимки.

Изглежда доста удобно.

AI като играч на опасни мисловни игри

AI, използван по този начин, на пръв поглед би изглеждал доста удобен (хей, споменах това само преди секунда).

Има множество потенциални недостатъци и проблеми, които са тревожни и може би плашещи.

В моите колони често обсъждам капацитета за двойна употреба на AI, вижте напр връзката тук. AI може да има жизненоважен принос за човечеството. Уви, AI също е обременен от много опасности и злощастни клопки.

За случая на AI като инициатор, нека разгледаме тези демонстративни проблеми, свързани с етиката на AI:

  • Нежелани реакции при хора
  • Неотзивчиви реакции от страна на хората
  • AI неправилно насочване
  • Недостатъчно насочване на AI
  • Кибер пробив на AI
  • Други

Ще разгледаме накратко тези опасения.

Нежелани реакции при хора

Да предположим, че човек, получаващ този вид базирана на ИИ инокулация, има нежелана реакция или предизвиква неблагоприятен ефект.

Лицето може да изтълкува погрешно имунизацията и внезапно да стане невъзприемчиво към информацията, която получава. Те блокират всякаква информация. Изкуственият интелект по някакъв начин ги е накарал да изхвърлят бебето заедно с водата за баня (стара поговорка, която може би си струва да се пенсионира). Вместо само да се опитва да се справи с дезинформацията и дезинформацията, човекът е реагирал, като е решил, че цялата информация винаги е невярна.

Не мисля, че искаме хората да прекаляват толкова много.

Има множество нежелани реакции, които изкуственият интелект може да предизвика. Това отчасти се дължи на начина, по който AI се е опитал да извърши инокулацията, но също така трябва да поставим част от проблема в краката на човека, който е получил инокулацията. Те може да са реагирали по диви или странни начини, че други, получаващи същата ваксинация с ИИ, не са го направили.

Отново можете да оприличите това на аналогията с ваксинациите за болести.

Накратко, ще бъде важно, когато се използват такива усилия на ИИ, те да се извършват по отговорни начини, които се стремят да сведат до минимум неблагоприятните ефекти. Трябва също така да има последващ аспект на AI, за да се опита и да установи дали е настъпила нежелана реакция. Ако има открита нежелана реакция, ИИ трябва да бъде разработен, за да се опита да помогне на лицето в неблагоприятната реакция и да се стреми да преодолее или облекчи реакцията.

Неотзивчиви реакции от хора

Друга възможност е, че хранената с AI инокулация няма въздействие върху приемащото лице.

Човек получава ваксинация, базирана на AI, свързана с дезинформация или дезинформация. Докато повечето хора „разболяват“ и се имунизират, непременно ще има хора, които изобщо няма да реагират. Те не научават нищо от ваксинацията. Те не реагират на опита на ИИ да ги имунизира срещу всички или определени видове дезинформация или дезинформация.

Още веднъж, това е сравнимо с ваксинациите за болести.

ИИ трябва да бъде разработен, за да се бори с такова обстоятелство.

AI Грешно насочване

Представете си, че изкуствен интелект се надява да имунизира хората по отношение на конкретна тема, която ще кажем, че е тема X, но се оказва, че тема Y вместо това е покрита. AI неправилно насочва.

Това е двоен проблем. Първо, тема X тогава не е била обхваната като предполагаема и очаквана цел на инокулатора на AI. Второ, темата Y е покрита, но може би не сме искали хората да бъдат имунизирани по тази тема.

Ами сега.

Има много въпроси. Можеше ли това да се предотврати? Ако се случи, можем ли да отменим темата за Y имунизацията? Можем ли да се опитаме да покрием темата X инокулация, или лицето ще бъде по-малко възприемчиво или невъзприемчиво поради неправилното насочване от AI първоначално?

Възникват много проблемни опасения.

Недостатъчно насочване на AI

AI осигурява ваксинация по темата Z. Хората, които получават ваксинацията, изглежда имат минимална или почти незначителна реакция. Инокулацията не беше достатъчна, за да се закрепи.

Може да се изкушите бързо да заявите, че това лесно се разрешава. Всичко, което трябва да направите, е да повторите инокулацията. Може би да, може би не.

Ваксинирането с изкуствен интелект може да бъде с толкова ограничена стойност, че независимо дали хората са го изпитали сто пъти, резултатът все още е маргинален резултат. Може да се наложи да увеличите инокулацията, вместо просто да я повторите.

Междувременно си представете, че е направен опит да се засили ваксинацията, захранвана с изкуствен интелект, но това прекалява. Подсилената версия предизвиква хиперреакции. Ех, от лошо станахме по-лошо.

Кибер пробив на AI

Представете си, че AI се използва широко, за да помогне на хората да бъдат ваксинирани от дезинформация и дезинформация.

Общото разчитане на хората. Те знаят и очакват, че AI ще им представи откъси, които ще им отворят очите за това, което е известно като дезинформация и дезинформация.

Всичко е наред, изглежда.

Един злосторник по някакъв начин е в състояние да извърши киберпробив в AI. Те тайно натрапват в AI някаква желана дезинформация, която искат хората да мислят, че не е дезинформация. AI е подреден така, че действителната дезинформация да изглежда като истинска информация. Освен това истинската информация се представя като дезинформация.

Хората са напълно снукър. Те са дезинформирани от AI. На всичкото отгоре, тъй като са станали зависими от AI и поради доверието, че AI прави правилното нещо, те попадат на кука, въдица и дъвка за този пробит AI. Без съмнение.

Като се има предвид колко лесно дезинформацията може да се разпространи по-нататък, злодеят може да се наслаждава, че съществуването на този вид ИИ е техният най-лесен и бърз начин да разпространят своите коварни лъжи по света. По ирония на съдбата, разбира се, използвайки AI инокулатора, за да разпространи по същество болестта.

Заключение

Трябва ли AI да си играе игри на ума с нас?

Възможно ли е AI за дезинформация и ваксиниране на дезинформация да бъде заплашителен троянски кон?

Можете да представите съществени аргументи за притеснение от подобен кошмар.

Други се присмиват на подобна възможност. Хората са достатъчно умни, за да разберат кога AI се опитва да ги измами. Хората няма да се хванат на такъв дрибъл. Само идиоти биха се подвели от такъв ИИ. Това са обичайните реплики и контрааргументи.

Без да искам да изглеждам по-малко от пълно възхищение от хората и човешката природа, просто бих предположил, че има достатъчно индикации, че хората могат да се влюбят в ИИ, който ги подвежда.

Има още по-голям проблем, който може би надвисва над всичко това.

Кой прави AI и как AI алгоритмично решава какво се счита за дезинформация и дезинформация?

Днес в света като цяло се води цяла престрелка за това какво точно представлява дезинформация и дезинформация. Някои твърдят, че фактите са си факти, така че никога не може да има объркване относно това какво е правилна информация срещу неправилна информация. Въпреки че понякога дяволът е в детайлите, това е сигурно.

Последна забележка за сега. Ейбрахам Линкълн каза известното: „Можеш да заблуждаваш всички хора през известно време и някои от хората през цялото време, но не можеш да заблуждаваш всички хора през цялото време.“

Ще бъде ли ИИ, който се използва за подпомагане на ваксинирането на човечеството от дезинформация и дезинформация, жизненоважен инструмент за гарантиране, че не всички хора могат да бъдат заблуждавани през цялото време? Или може да се използва за заблуда на повече хора през по-голямата част от времето?

Времето ще покаже.

И това със сигурност не е дезинформация или дезинформация.

Източник: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/