Етиката на изкуствения интелект и законът за изкуствения интелект може просто да бъдат подтикнати и подтикнати към задължителни предупреждения за безопасност на всички съществуващи и бъдещи изкуствен интелект

Вашите ежедневни дейности несъмнено са бомбардирани с хиляди или повече предпазни предупреждения от един или друг вид.

Пробвайте тези за размер:

  • През цялото време трябва да се носят предпазни очила
  • Опасност: Опасни химикали наблизо
  • Високо напрежение – дръжте навън
  • Предупреждение: Бъдете наясно със заобикалящата ви среда
  • Предметите в огледалото са по-близо, отколкото изглеждат
  • Извадете детето преди сгъване (както е посочено на бебешките колички)
  • Внимание: Не забравяйте да игнорирате това съобщение

Повечето от тях са удобни и напълно обмислени знаци или етикети, които ни служат, надяваме се, да ни пазят в безопасност и сигурност.

Моля, имайте предвид, че измъкнах няколко „отклоняващи се“ в списъка, за да направя някои забележителни точки.

Например, някои хора смятат, че е глупаво бебешките колички да имат прикрепен етикет, който ви предупреждава да не сгъвате количката, докато бебето все още седи в измишльотината. Въпреки че знакът със сигурност е подходящ и покорно полезен, изглежда, че основният здрав разум вече би бил достатъчен.

Кой човек не би осъзнал по свое собствено желание, че първо трябва да извади бебето?

Е, други подчертават, че подобни етикети служат на важна цел. Първо, някой може наистина да не забелязва, че трябва да свали бебето, преди да сгъне количката. Може би човекът е предположил, че количката е проектирана проницателно, за да гарантира, че операцията по сгъване няма да навреди на бебето. Или вероятно има вградени функции за безопасност, които предотвратяват сгъването, когато в количката има дете. и т.н.

Също така, възможно е човекът да е бил разсеян и да е сгънал безсмислено количката, обхващайки бебето и всичко останало, но етикетът за щастие го е подканил да не го прави (някои биха възразили, че изглежда малко вероятно такъв човек да забележи етикета така или иначе). Има и факта, че някой може да съди производителя на количката, ако такъв етикет не присъства. Можете да си представите едно от онези тежки съдебни дела, при които бебе е ранено и родителят решава да събере милион долара, защото на количката липсва предупредителен знак. Компанията за детски колички ще съжалява, че не е похарчила няколкото цента, необходими за изработката и поставянето на предупредителните знаци върху техните колички.

Погледнете внимателно и последното от предупредителните съобщения, които изброих по-горе.

Избрах да поставя зловещото съобщение за това, че трябва да игнорирате съобщението, тъй като в наши дни има много фалшиви предупредителни етикети, които хората купуват или правят само за забавление. Това е истинско философско умение. Ако прочетете предупреждението, което казва да пренебрегнете предупреждението, какво точно трябва да направите, след като прочетете предупреждението? Вече сте го чели, значи е уж в ума ви. Разбира се, можете да го игнорирате, но от друга страна, изобщо не сте информирани какво е това, което трябва да игнорирате. Тази шега върви в кръг.

Разбира се, добросъвестните предупредителни етикети обикновено не са от шеговит или хумористичен характер.

Трябва да приемаме предупрежденията доста сериозно.

Обикновено, ако не успеете да се съобразите с отбелязано предупреждение, вие го правите на личен сериозен риск. Освен това може да се окаже, че ако не спазвате и не се съобразите с предупреждението, потенциално ще изложите и другите на неоправдан риск. Помислете за акта на шофиране на кола. В момента, в който сте зад волана на автомобил, действията ви като шофьор могат да навредят на вас, освен това можете да навредите на пътниците си и можете да навредите на други, като хора в други коли или пешеходци наблизо. В този смисъл предупреждението не е само за ваша полза, то е вероятно и за ползата на другите.

Защо разглеждам тези аспекти на предупреждения и предупредителни етикети?

Защото някои яростно твърдят, че се нуждаем от предупредителни знаци за днешния изкуствен интелект (AI).

Всъщност идеята е да се поставят такива етикети върху днешния ИИ и бъдещия ИИ също. Като цяло, всички AI в крайна сметка ще имат някаква форма или вариант на предупреждение или предупредителна индикация, свързана с него.

Добра или лоша идея?

Практично или непрактично?

Нека да разопаковаме концепцията и да видим какво можем да направим от нея.

Бих искал първо да положа някои съществени основи за AI и по-специално AI етиката и закона за AI, като по този начин се уверя, че темата за предупрежденията за AI ще бъде контекстуално разумна. За тези от вас, които обикновено се интересуват от етичния AI, а също и от закона за AI, вижте моето обширно и текущо отразяване на връзката тук намлява връзката тук, Само за да назовем няколко.

Нарастващата осведоменост за етичния AI, а също и закона за AI

Неотдавнашната ера на AI първоначално се разглежда като AI за добро, което означава, че можем да използваме AI за подобряването на човечеството. По петите на AI за добро дойде осъзнаването, че ние също сме потопени в AI за лошо. Това включва ИИ, който е създаден или самопроменен, за да бъде дискриминационен и прави изчислителни избори, внушаващи ненужни пристрастия. Понякога изкуственият интелект е изграден по този начин, докато в други случаи се отклонява в тази неприятна територия.

Искам да съм напълно сигурен, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от несъзнателния AI, който имаме днес. Ако искахме да спекулираме безумно за разумния ИИ, тази дискусия може да тръгне в коренно различна посока. Смята се, че един разумен AI ще бъде от човешко качество. Трябва да имате предвид, че чувствителният AI е когнитивният еквивалент на човека. Нещо повече, тъй като някои спекулират, че може да имаме супер-интелигентен ИИ, е възможно такъв ИИ да се окаже по-умен от хората (за моето изследване на супер-интелигентен ИИ като възможност вж. покритието тук).

Горещо препоръчвам да държим нещата на земята и да вземем предвид днешния изчислителен несъзнателен ИИ.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс дори при сравнително обширни тестове да има отклонения, все още вградени в моделите за съпоставяне на шаблони на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, подлежат на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Аз също наскоро прегледах Законът за правата на AI което е официалното заглавие на официалния документ на правителството на САЩ, озаглавен „Проект за Закон за правата на ИИ: да накараме автоматизираните системи да работят за американския народ“, който е резултат от едногодишни усилия на Службата за политика в областта на науката и технологиите (OSTP ). OSTP е федерален орган, който служи за консултиране на американския президент и изпълнителния офис на САЩ по различни технологични, научни и инженерни аспекти от национално значение. В този смисъл можете да кажете, че този Закон за правата на ИИ е документ, одобрен от и подкрепен от съществуващия Белия дом на САЩ.

В Декларацията за правата на ИИ има пет основни категории:

  • Безопасни и ефективни системи
  • Алгоритмични защити срещу дискриминация
  • Защита на личните данни
  • Забележка и обяснение
  • Човешки алтернативи, внимание и резервен вариант

Прегледах внимателно тези предписания, вижте връзката тук.

Сега, след като поставих полезна основа върху тези свързани теми за етиката на ИИ и Закона за ИИ, ние сме готови да преминем към опияняващата тема дали ИИ трябва да има предупредителни етикети или не.

Пригответе се за отварящо очите ви информативно пътешествие.

Поставяне на предупредителни етикети върху AI като средство за защита на човечеството

Все повече се шуми, че може би AI трябва да дойде с някакво предупреждение.

Например в скорошна статия в MIT Technology мнение който обсъждаше нарастващия интерес към извършването на одити на AI, възникна идеята за предоставяне на предупредителни знаци: „Растежът на тези одити предполага, че един ден може да видим предупреждения в стила на цигарени кутии, че AI системите могат да навредят на вашето здраве и безопасност. Други сектори, като химикали и храни, имат редовни одити, за да се гарантира, че продуктите са безопасни за употреба. Може ли нещо подобно да стане норма в AI?“ (MIT Technology мнение, Мелиса Хейкила, 24 октомври 2022 г.).

Нека да поговорим малко за предупредителните и предупредителните знаци.

Всички вече сме добре запознати с предупредителните знаци върху множество продукти и услуги от ежедневен характер. Понякога знаците за безопасност са предвидени от закона като задължителни, докато в други случаи има преценка относно използването на такива знаци. В допълнение, някои знаци за безопасност са стандартизирани, като например са определени съгласно стандарта ANSI Z535 и стандарта OSHA 1910.14. Тези стандарти обхващат аспекти като текста на знака, използваните цветове и шрифтове, формата на знака и различни други подробности.

Логично е да има стандарти за такива предупредителни знаци. Всеки път, когато видите такъв знак, ако той отговаря на посочените стандарти, е по-вероятно да повярвате, че знакът е легитимен, освен това се нуждаете от по-малко когнитивна обработка, за да анализирате и осмислите знака. За знаци, които не са от стандартизиран подход, често трябва да изчислите наум какво ви казва знакът, може би губейки ценно време, за да предприемете действие, или може напълно да прецените знака погрешно и да не разберете правилно предупреждението.

Може да съществува набор от такива знаци, за които те често се класифицират донякъде по следния начин:

  • Знак за опасност: Най-голямо безпокойство и показател за непосредствена опасност с вероятни тежки последствия
  • Предупредителен знак: Индикация за опасност, която е по-малка от „опасност“, но все пак доста сериозна
  • Знак за внимание: Индикация за потенциална опасност, която е по-малка от „предупреждение“, но все пак наистина сериозна
  • Знак за уведомяване: Индикация за информационно предупреждение, което е по-малко от „внимание“, но все пак включва тревожни аспекти

Като се има предвид горната предистория относно предупрежденията и предупредителните знаци, можем да продължим и да опитаме да приложим това контекстуално към използването на AI.

Първо, потенциално бихме могли по някакъв начин да се съгласим, че AI знаците може да са в подобен диапазон на тежест, както е обичайно с ежедневните знаци, като че:

  • AI знак за опасност: AI предизвиква най-голяма загриженост и е показателен за непосредствена опасност с вероятни сериозни последствия
  • AI Предупредителен знак: ИИ показва опасност, която е по-малка от „опасност“, но все пак доста сериозна
  • AI Предупредителен знак: AI, показващ потенциална опасност, която е по-малко от „предупреждение“, но все пак наистина сериозна
  • AI Уведомителен знак: AI е показателен за информационен хедс-ъп, който е по-малко от „предпазливост“, но все пак включва тревожни аспекти

Същността е, че не всички AI ще бъдат еднакво обезпокоителни. Може да се окаже, че ИИ крие огромни рискове или има само незначителни рискове. Съответно табелите трябва да отразяват кое кое е. Ако всички предупреждения или предупредителни знаци за ИИ бяха просто показани като от един и същи калибър, вероятно нямаше да знаем или да сме наясно дали да бъдем силно загрижени или само леко загрижени за ИИ. Използването на типизирана формулировъчна схема може да улесни живота при виждане и тълкуване на предупредителни знаци, свързани с ИИ.

Може би се чудите какво друго биха казали знаците по отношение на спецификата на посланието, което трябва да бъде предадено.

Това със сигурност е по-труден въпрос за справяне. Възможностите на AI да се правят неща, които се считат за опасни или тревожни, биха били изключително големи, почти безкрайни. Можем ли да ги сведем до някакъв рутинизиран набор, който е изписан само с няколко думи всяка? Или ще трябва да позволим по-свободен подход към това как ще върви формулировката?

Ще ви позволя да помислите върху този отворен въпрос.

Продължавайки напред, ние сме склонни да виждаме предупредителни знаци, поставени върху предмети. Една AI система не е непременно „обект“ в същия смисъл като обичайното поставяне на знаци. Това повдига въпроса къде ще бъдат представени предупредителните знаци на AI.

Може да се окаже, че когато стартирате приложение на вашия смартфон, ако той използва AI, ще се покаже съобщение, което съдържа предупреждението, свързано с AI. Приложението ще ви предупреди за основното използване на AI. Това може да е изскачащо съобщение или може да бъде представено по различни визуални и дори звукови начини.

Съществува и ситуация, когато използвате услуга, която е подкрепена от AI, въпреки че може да не взаимодействате директно с AI. Например, може да водите разговор с човешки агент за получаване на жилищна ипотека, за която агентът е тихо зад кулисите, използвайки AI система, за да ръководи усилията си.

Следователно трябва да предвидим, че предупредителните знаци за ИИ трябва да присъстват и в двата случая на използване на ИИ, така че:

  • Специфичен за продукта AI: AI като продукт трябва да има директни предупредителни или предупредителни знаци за AI
  • AI, ориентиран към услуги: AI като услуга (пряко или косвено) трябва да има предупредителни или предупредителни знаци за AI

Скептиците със сигурност биха побързали да предположат, че предупредителният знак за изкуствен интелект може да бъде коварно прикрит от производителя на приложението, така че предупреждението да не е особено забележимо. Може би предупреждението се появява за кратък миг и вие наистина не забелязвате, че е било показано. Друг подъл трик би бил да се направи нещо като игра от това, привидно подкопавайки сериозността на предупреждението и приспивайки хората да мислят, че предупреждението е несъществено.

Да, почти можете да се обзаложите, че всички предупредителни знаци, свързани с ИИ, ще бъдат измамени и използвани по начини, които не са в рамките на духа и намерението на предупредителните съобщения, които трябва да предадат.

Всички тези скептицизми се съгласуват с това дали ще използваме етиката на ИИ като „меки закони“, за да се опитаме да продължим напред относно предупрежденията и предупрежденията, свързани с ИИ, или ще използваме „твърди закони“, включително приети закони със съдебна подкрепа. На теория натискането на незадължителните закони би позволило по-голямо подобие на игра с въпроса, докато законите в книгите ще дойдат с потенциала за прилагане от страна на правителството и ще доведат до по-голяма строгост.

Друго притеснение е дали знаците с изкуствен интелект ще направят някаква разлика.

Много изследвания върху поведението на потребителите са склонни да показват объркани резултати, когато става въпрос за предоставяне на предупредителни етикети за потребителите. Понякога предупрежденията са ефективни, понякога не. Нека приложим някои от тези изследвания в контекста на ИИ.

Помислете за тези аспекти:

  • Откриване: Дали тези, които използват AI, който съдържа жизнеспособен предупредителен знак за AI, биха забелязали активно или открили, че знакът им се показва (ако приемем, че такъв знак е възникнал)?
  • разбиране: За тези, които са забелязали, биха ли разбрали или разбрали какво се опитва да им внуши предупредителният знак с изкуствен интелект?
  • Действие: За онези, които направят този умствен скок, предупредителният знак за изкуствен интелект ще ги подтикне към действие или по друг начин ще послужи за съответно насочване на поведението им?

Можете да очаквате, че ако набере инерция за наличието на предупредителни знаци за ИИ, изследователите ще проучат внимателно въпроса. Идеята би била да се помогне при изясняването при какви обстоятелства предупрежденията са полезни и кога не. Това от своя страна се отнася до дизайна и външния вид и усещането. Можем също така да очакваме, че широката общественост ще трябва да бъде образована или информирана за появата на тези предупредителни и предупредителни знаци за ИИ, така че да свикне с тях.

Има много обрати, които трябва да се вземат предвид.

Трябва ли AI предупреждението или предупредителният знак да се появи само в началото на използваното приложение? Може би началната точка сама по себе си не е достатъчна. На пръв поглед човек може да си помисли, че приложението просто играе на сигурно, като използва предупреждение, и по този начин да не обръща особено внимание на предупреждението. След като лицето е по средата на използването на приложението, може би е необходимо допълнително предупреждение. В този момент човекът е по-наясно какво предприема приложението и може вече да е забравил за посоченото по-рано предупредително съобщение.

След това може да възникне предупреждение или предупреждение за изкуствен интелект:

  • Преди стартиране на приложението и точно когато приложението е на път да бъде извикано
  • Представя се след стартиране на приложението и само в началната точка
  • Показва се в началото и отново по средата
  • Показва се многократно по време на използването на AI
  • Предоставя се в края на използването на приложението
  • Предоставете след излизане от приложението и евентуално дори минути, часове или дни по-късно
  • Т.н.

Смятате ли, че лицето, използващо AI, трябва да потвърди или приеме всички подобни предупреждения или предупредителни знаци за AI?

Някои биха настояли, че от лицето трябва да се изисква да признае, че е видял предупрежденията. Това потенциално би предотвратило онези, които биха могли да твърдят, че не е имало предупредително съобщение. Това също може да накара хората да приемат съобщенията по-сериозно, като се има предвид, че от тях се иска да потвърдят, че са спазили предупредителната индикация.

Ето един труден въпрос за вас.

Трябва all AI трябва да предостави предупреждение или индикация за безопасност?

Може да възразите, че да, всички AI трябва да имат това. Дори ако изкуственият интелект е само незначителен риск за безопасността, той все пак трябва да има някаква форма на предупредителен знак, вероятно само известие или информационна индикация. Други биха оспорили това твърдение. Те биха възразили, че прекалявате. Не всеки AI се нуждае от това. Освен това, ако принудите всички AI да го имат, ще размиете целта. Хората ще станат вцепенени да видят предупредителните индикации. Целият подход ще се превърне във фарс.

От свързан ъгъл, помислете какво вероятно ще кажат създателите на AI.

Една гледна точка би била, че това ще бъде болка в знаете какво да поставите на място. Необходимостта да промените всичките си AI системи и да добавите тази функция може да бъде скъпо. Добавянето му за напредък може да е по-евтино, но въпреки това има цена, свързана с включването на тази разпоредба.

Мътността е друго потенциално оплакване. Какъв вид съобщение трябва да се покаже? Ако няма стандарти, това означава, че производителите на AI ще трябва да изработят нещо ново. Не само, че това допълнително струва, то вероятно отваря вратата за съдене. Можете да си представите, че производител на изкуствен интелект може да бъде натоварен със задачата, че предупреждението му не е толкова добро, колкото някоя друга система с изкуствен интелект. Юристите в крайна сметка ще направят пачка от полученото объркване.

Съществува и опасението, че хората ще бъдат неоснователно уплашени от тези съобщения за безопасност.

Създател на изкуствен интелект може да забележи рязък спад в броя на потребителите поради съобщение за безопасност, което има само за цел да предостави информационно предупреждение. Хората няма да знаят какво да правят със съобщението. Ако не са виждали такива съобщения преди, може веднага да се изплашат и да избегнат ненужно използването на AI.

Споменавам тези аспекти, защото някои вече заявяват, че „не може да навреди“ да започнете да включвате предупреждения за AI или съобщения за безопасност. За тях идеята е идеална като ябълков пай. Никой не може сериозно да опровергае ползите от винаги изискване на безопасност или предупреждения, свързани с ИИ. Но разбира се, това не е реалният начин на мислене по въпроса.

Можете дори да отидете по-далеч и да твърдите, че предупредителните съобщения на AI могат да предизвикат някаква форма на масова истерия. Ако изведнъж започнем да принуждаваме AI системите да имат такива съобщения, хората биха могли да изтълкуват погрешно намерението. Виждате ли, има много увещания, че сме изправени пред екзистенциална криза на ИИ, при която ИИ ще превземе света и ще унищожи човечеството, вижте връзката тук за моя анализ на тези видове твърдения.

Използването на предупредителното съобщение на AI може да „вдъхнови“ някои хора да вярват, че краят е близо. Защо иначе съобщенията биха се появили сега? Разбира се, това е индикация, че най-накрая AI се готви да стане наши потиснически господари.

Един вид отчайващо мрачен резултат от опитите да направите правилното нещо, като информирате обществеността за това как изкуственият интелект може да бъде пропит с дискриминационни способности или други AI за лошо аспекти.

Заключение

Джеймс Ръсел Лоуел, известният американски поет, веднъж каза следното: „Един трън от опит струва цяла пустиня от предупреждение.“

Изтъквам възвишената забележка, за да направя няколко заключителни коментара по въпроса за предупрежденията за AI или съобщенията за безопасност.

Шансовете са, че докато нямаме донякъде широко разпространено осъзнаване на ИИ, който върши лоши дела, няма да има много шум за свързаните с ИИ предупредителни съобщения. Тези създатели на изкуствен интелект, които изберат доброволно да го направят, може би ще бъдат похвалени, въпреки че биха могли също така по невнимание да се окажат несправедливо тормозени. Някои експерти може да ги преследват за това, че използват AI, който привидно се нуждае от предупреждения, като междувременно пренебрегват да осъзнаят, че те се опитват да бъдат първи, а всички онези други производители на AI изостават.

Проклето, ако го направите, може би не проклето, ако не го направите.

Друго съображение се занимава с превръщането на това, което изглежда като хубава концептуална идея, в практична и полезна практика. Лесно е да махнете с ръце и неясно да извикате на вятъра, че AI трябва да има предупредителни и безопасни съобщения. Трудната част идва при вземането на решение какви да бъдат тези послания, кога и къде трябва да бъдат представени, дали и до каква степен цената им носи достатъчни ползи и т.н.

Тук ще дадем на Джеймс Ръсел Лоуел последната дума (поетично) по тази тема засега: „Творчеството не е намирането на нещо, а правенето на нещо от него, след като е намерено.“

Предполагам, че е време да запретнем ръкави и да се заемем с това. И това не е просто предупреждение, това е действие.

Източник: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- предупреждения-за-всички-съществуващи-и-бъдещи-ai/