Нациите търгуват със своя AI, тъй като геополитическите пазарлъци повишават тревогата за етиката на AI и закона за AI

Споделяйте и споделяйте еднакво.

Има много за обикаляне за всеки.

Някои смятат, че тези дългогодишни бисери на мъдрост се отнасят за изкуствения интелект (AI). Виждате ли, някои нации са по-напред в своя AI напредък от други. Притесненията са, че това предполага, че ще има AI имащи срещу AI нямащи. Може би правилното или гражданско нещо, което трябва да направите, е да се уверите, че всички нации получават равен дял от AI пая, така да се каже.

Изчакайте проклета секунда, някои гневно отвърнаха, помислете за известната реплика, че на победителя отива плячката.

Ако дадена нация инвестира дълбоко в напредъка на ИИ, би изглеждало правилно и изключително справедливо те да се възползват повече от други нации, които не правят същата инвестиция. Искрено ли вярвате, че други нации трябва да се возят безплатно на нациите, които правят ИИ основен приоритет? Спомнете си класическата приказка за Малката червена кокошка, при което кокошката направи хляба съвсем сама и продължи да моли други животни от обора да помогнат, но те не го направиха и в крайна сметка вкусният прясно изпечен хляб отиде при кокошката, докато другите го пропуснаха.

Няма бездарници на този свят.

Като такива, споделянето и споделянето нямат смисъл, ако споделящите нации не споделят еднакво в изработването на самото дело. Погледнете го по този начин. Ако всяка нация наистина направи своя дял от напредъка на ИИ, всички те биха имали какво да търгуват една с друга нация. Резултатът би бил рай за търговеца. Аз ви разменям моя AI, вие ми разменяте своя AI. Щеше да бъде така, сякаш кокошката и останалата част от плевнята направиха по малко хляб и накрая избраха да си дадат по малко от това, което направиха.

Това повдига тема, в която много хора все още не се задълбочават.

Говоря за глобална геополитика търговия с AI в и между нациите.

Една хапка.

Можете да се обзаложите, и всичко това е, защото AI е широко разпространен за глобална търговия.

Моля, осъзнайте, че не всички AI са еднакви. Има AI за игра на игри. Има AI за здравни и медицински цели. Има AI за финансови анализи и извършване на парични изчисления. Има AI за земеделие и земеделски цели. Мога да продължа още и още. Съществува всякакъв вид ИИ, който също се програмира и разработва. Днешните известни или проучени употреби на AI са само надраскали повърхността. Сигурен залог е, че AI ще продължи да се разширява и усъвършенства. AI неизбежно и неумолимо ще бъде във всяко кътче на планетата. Да се ​​каже, че AI ще бъде повсеместен, не е особено преувеличено.

Нациите се подготвят за появата на широко разпространен AI.

По-рано съм обсъждал, че има продължаващо и на моменти агресивно AI състезание протича между нациите относно това коя нация ще има най-добрия или най-напредналия AI спрямо всички останали – вижте „Етика на AI и геополитическата борба за това кой ще спечели надпреварата за постигане на истински AI“ на връзката тук (Ланс Елиът, Forbes, 15 август 2022 г.).

Освен това посочих, че има много потенциал политическа власт които могат да възникнат в дадена нация в резултат на нейното задържане или натрупване на най-новите постижения на ИИ – вижте „Етика на ИИ и надвисналата политическа мощ на ИИ като създател или разрушител на кои нации са геополитически сили“ на връзката тук (Ланс Елиът, Forbes, 22 август 2022 г.).

Всички тези машинации с изкуствен интелект носят много значителни разклонения относно етиката на изкуствения интелект и закона за изкуствения интелект. Ние искаме AI да спазва различни етични правила за AI или „меки закони“ относно това как AI се съставя и използва. Междувременно, бавно, но сигурно, законите и разпоредбите за ИИ се обсъждат и въвеждат в действие. Законът за изкуствения интелект ще бъде страхотен инструмент в опитите да се справим с изкуствения интелект и къде отиваме като общество с изкуствения интелект. За моето текущо и обширно отразяване на етиката на ИИ и Закона за ИИ вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Днешната колона ще бъде за свързано предизвикателство и възможност, а именно търговията с AI от една национална държава към националната държава. Можете да оприличите това на търговия с коне, въпреки че вместо коне имаме усъвършенстван AI и доста обезсърчаващите шансове или да подпомогнем тежкото положение на човечеството, или потенциално да съсипем бъдещето на човечеството (известно като с двойна употреба AI, виж анализа ми на връзката тук).

Това е страхотна главоблъсканица за търговия с коне.

AI е доста голямо нещо в наши дни. Със сигурност сте чели или чували, че AI е вид екзистенциален риск, вижте моето отразяване на това на връзката тук. Има шанс полудивият AI да ни постави в доста неблагоприятна ситуация. Освен това има притеснения, че ако по някакъв начин успеем да постигнем разумен ИИ, който определено все още не сме там, разумният ИИ може да бъде толкова умен или дори по-умен от хората. Супер умният изкуствен интелект може да измисли начин да стане наш господар. Можем да станем роби на AI. Човек предполага, че AI може да е в състояние да ни унищожи, ако иска да го направи.

Същността е, че ако една нация предаде на друга нация ключовете от царството на AI, не можем да сме сигурни какво ще направи другата нация с него. Освободете го и позволете на AI да напредва и да унищожи цялата земя. Опитайте се да затворите изкуствения интелект и да не стане злодей. Обхватът на възможностите е безкраен. Резултатите варират от добри до лоши, включително ужасяващи и опустошително лоши.

Изкушаващо е да се твърди, че всяка нация трябва да държи ИИ плътно до гърдите си.

Може би всяка нация би била най-мъдра да затвори своя AI. Това донякъде е затрудненото положение в основата на лудата надпревара към ИИ от страна на националните държави. Една национална държава може да повярва, че проницателното нещо, което трябва да направите, е да разберете ИИ и да го впрегнете в заповедите на тази нация. Представете си вид политическа сила, която една национална държава може да натрупа, като изпреварва всички останали в ИИ. Това е подобно на надпревара в ядреното въоръжаване, въпреки че проблемът и разликата са, че AI е много по-хлъзгав.

Пренасянето на ИИ в друга нация не е особено голяма работа. Имаме интернет като електронна връзка, която обикновено е достъпна в повечето нации. Можете да промъкнете своя AI в друга земя, докато седите в спалнята си с пижама. Без големи камиони или тежки сандъци за транспортиране. Просто натиснете бутон за електронно предаване на AI, който искате да споделите с друга държава.

Едно и готово.

Плюс това, не можете особено да промените решението си и да върнете AI обратно. Обикновено е възможно да се направи копие на AI. В такъв случай, когато някоя нация подчертае, че е по-добре да върнете AI, можете да им го изпратите и да обявите, че сте го върнали. Междувременно съществуват милион копия и можете да ги използвате според желанията на сърцето си.

Има начини за криптиране на AI. Има начини за включване на пароли. Можете тайно да вмъкнете в AI някакъв вид задна врата, така че по-късно да можете да го използвате, за да го деактивирате. Споменавам това, защото някои от вас може би увещават точно сега, че изкуственият интелект може да бъде изключен като цяло, след като бъде предаден, ако е необходимо. Работата е там, че има много начини да заобиколите тези предпазни мерки или да ги подкопаете, което води до изтощителна и скъпа игра на котка и мишка на киберсигурността.

Като цяло трябва да приемете идеята, че след като AI бъде даден на друга нация, има голям шанс никога да не го получите обратно. Освен това има голям шанс те да продължат да го използват, въпреки вашето желание като нация да ги накарате да спрат да го правят.

Разбира се, една нация може да използва всякакъв друг вид тежък геополитически натиск, за да накара друга нация да спре да използва AI система. Заплахите могат да бъдат от военен или икономически характер. Могат да се водят преговори и друго национално-държавно пазарене.

Ето един обрат, за който може би не сте мислили.

Ако дадена нация предостави AI на друга предпочитана нация, пусната ли е котката от торбата?

Притеснението е, че възприетата съюзническа нация може по невнимание да позволи AI да бъде споделен с друга нация, която не е в предпочитания списък. Освен че прави това по невнимание, съюзническата нация може умишлено да предаде AI на непредпочитана нация. Защо, по дяволите, една съюзническа нация би направила този вид „намушване в гърба“ да даде скъпоценния AI на нация, която не е била считана в предпочитания списък?

Разменни монети.

AI може да бъде доста полезна разменна монета. Една малка нация, която иска да изглежда голяма, може да размени AI за нещо друго. Нуждаете се от още масло? Разменете своя AI. Нуждаете се от храна и консумативи? Разменете своя AI. Искате просто да получите статут на предпочитана нация с друга нация? Изкушете нацията, като предложите някакъв сочен AI, който иначе нямат наличен.

AI е монети. AI е като златни кюлчета. AI е ресурс, който трябва да се търгува напред-назад. Красотата е, че е електронен и може да се направи, без никой да го забележи. Ако една нация постави сандъци със злато на кораб или тежък самолет, някой непременно ще забележи. Предаването на AI система към друга нация се извършва на тъмно и без лесен начин за проследяване.

Да се ​​върнем към имащите и нямащите.

Нация, която няма AI, може да бъде категоризирана като AI-гладен. Обикновено има значителни разходи, свързани с разработването на AI, включително разходите за труд, които могат да бъдат скъпи, заедно с използването на огромни компютърни сървъри. Някои нации имат това, но много не. Техните ограничени ресурси отиват към по-основни цели за оцеляване.

Някои смятат, че в крайна сметка Обединените нации ще трябва да преценят балансирането на ИИ по целия свят. ООН вече е ангажирана с разглеждането на етиката на ИИ и Законите за ИИ, за които ще спомена повече след малко. Възможно е Обединените нации да се превърнат в своеобразна клирингова къща за AI относно търговията и споделянето на AI.

Абсурдно, настояват някои.

Нациите могат да правят с ИИ каквото си искат, гласи пламенният аргумент. Посредникът е ненужен и досаден. Всяка нация, която иска да търгува конкретен AI с която и да е друга нация, трябва да може свободно да го прави. Отвореният и неограничен пазар на света трябва да определи накъде отива AI.

Контрааргументът е, че ако AI има потенциала да подкопае човечеството, няма ли да има обикновен приличен смисъл да се постави някаква форма на контрол върху това кой получава този AI? Само отговорните нации трябва да имат определени видове ИИ. Като създадем глобална клирингова къща, управлявана от предполагаема неутрална трета страна, може би можем да предпазим ИИ от попадане в неподходящи ръце.

Порестите аспекти на възможността за преместване на ИИ от нация в нация правят подобни аргументи малко по-трудни за приемане. Може да се окаже, че клиринговата къща за ИИ между нации не е нищо повече от тясно място. Това е бюрокрация, която предполагаемо ще попречи на използването на AI, който е много необходим, и няма да направи много за предотвратяването или смекчаването на AI, който е лош.

Тези опияняващи глобални дебати за ИИ са длъжни да се завъртят.

Отделете малко време, за да разгледате тези три доста поразителни въпроса:

  • Какво трябва да правим относно глобалната търговия с ИИ от нации към други нации?
  • Имат ли някаква стойност етиката на изкуствения интелект и правото на изкуствения интелект към този досаден въпрос?
  • Какви видове споразумения за търговия с ИИ могат да бъдат предвидени (сега и в бъдеще)?

Радвам се, че попита.

Преди да се потопя дълбоко в темата, бих искал първо да положа някои основни основи за AI и по-специално за AI етиката и закона за AI, като по този начин се уверя, че дискусията ще бъде контекстуално разумна.

Нарастващата осведоменост за етичния AI, а също и закона за AI

Неотдавнашната ера на AI първоначално се разглежда като AI за добро, което означава, че можем да използваме AI за подобряването на човечеството. По петите на AI за добро дойде осъзнаването, че ние също сме потопени в AI за лошо. Това включва ИИ, който е създаден или самопроменен, за да бъде дискриминационен и прави изчислителни избори, внушаващи ненужни пристрастия. Понякога изкуственият интелект е изграден по този начин, докато в други случаи се отклонява в тази неприятна територия.

Искам да съм напълно сигурен, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от несъзнателния AI, който имаме днес. Ако искахме да спекулираме безумно за разумния ИИ, тази дискусия може да тръгне в коренно различна посока. Смята се, че един разумен AI ще бъде от човешко качество. Трябва да имате предвид, че чувствителният AI е когнитивният еквивалент на човека. Нещо повече, тъй като някои спекулират, че може да имаме супер-интелигентен ИИ, е възможно такъв ИИ да се окаже по-умен от хората (за моето изследване на супер-интелигентен ИИ като възможност вж. покритието тук).

Горещо препоръчвам да държим нещата на земята и да вземем предвид днешния изчислителен несъзнателен ИИ.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнаят какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скритите пристрастия. С право бихте се надявали и очаквали, че разработчиците на AI ще тестват за потенциално заровени пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солиден шанс дори при сравнително обширни тестове да има отклонения, все още вградени в моделите за съпоставяне на шаблони на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, подлежат на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Аз също наскоро прегледах Законът за правата на AI което е официалното заглавие на официалния документ на правителството на САЩ, озаглавен „Проект за Закон за правата на ИИ: да накараме автоматизираните системи да работят за американския народ“, който е резултат от едногодишни усилия на Службата за политика в областта на науката и технологиите (OSTP ). OSTP е федерален орган, който служи за консултиране на американския президент и изпълнителния офис на САЩ по различни технологични, научни и инженерни аспекти от национално значение. В този смисъл можете да кажете, че този Закон за правата на ИИ е документ, одобрен от и подкрепен от съществуващия Белия дом на САЩ.

В Декларацията за правата на ИИ има пет основни категории:

  • Безопасни и ефективни системи
  • Алгоритмични защити срещу дискриминация
  • Защита на личните данни
  • Забележка и обяснение
  • Човешки алтернативи, внимание и резервен вариант

Прегледах внимателно тези предписания, вижте връзката тук.

Сега, след като поставих полезна основа върху тези свързани теми за етиката на ИИ и Закона за ИИ, ние сме готови да преминем към опияняващата тема за изследване на глобалната търговия на ИИ между националните държави.

Благодат в търговията AI за търговски нации

Нека преразгледаме моите по-ранни постулирани въпроси по тази тема:

  • Какво трябва да правим относно глобалната търговия с ИИ от нации към други нации?
  • Имат ли някаква стойност етиката на изкуствения интелект и правото на изкуствения интелект към този досаден въпрос?
  • Какви видове споразумения за търговия с ИИ могат да бъдат предвидени (сега и в бъдеще)?

На първия въпрос обикновено се отговаря с няколко ясни думи.

Поставеният въпрос: Какво трябва да правим относно глобалната търговия с ИИ от нации към други нации?

Съдържателният отговор на някои: Съвсем нищо.

Точно така - не правете проклети неща. Не е работа на никого да се бърка в търговията с ИИ между нациите. Нациите правят каквото искат. Нека бъдат.

Всъщност понякога се твърди, че ако има опит да се ограничи търгуването на ИИ между националните държави, това ще попречи на ИИ като цяло. Ще обезсърчите новите иновации в AI. Гледната точка е, че AI трябва да бъде освободен от ограничения точно сега. Намираме се в етап на развитие на AI, който може да ни доведе до истински общ изкуствен интелект (AGI), само ако позволим на всички да участват.

Сигурен съм, че знаете контрааргументите. Ние си играем с огъня. AI е пожарът, който може да изгори всичките ни къщи. Трябва да въведете AI етика, за да се опитате да предпазите AI от превръщането на разрушителен водовъртеж. Същото важи и за въвеждането на Закони за ИИ. AI има огромен потенциал за големи вреди. Конят вече някак щъка извън обора, не му позволявайте да измъкне останалата част от пътя.

Възможно е да установим изискване всяка нация, търгуваща с ИИ, да демонстрира, че е установила национални политики за етика на ИИ. Политиките за етиката на изкуствения интелект трябва да бъдат твърди и да се докаже, че се спазват (без празни усилия). По същия начин всяка нация, търгуваща с AI, трябва да установи приложими закони за AI, плюс законите трябва да се прилагат (в противен случай това е фалшификация).

Когато една нация желае да търгува с ИИ с друга нация, първо трябва да бъдат изпълнени и одобрени изискванията на Етиката на ИИ и Законите за ИИ. Неутрална трета страна, като например под егидата на ООН, може да служи в това качество. Надеждата е, че това ще предотврати или поне ще намали прекомерните рискове от AI да бъде търгуван и използван по разрушителни начини.

Един забележителен голям проблем надвисва над това понятие.

Изглежда много малко вероятно всички нации да се съгласят с подобно споразумение. Като такива, нациите „измамници“, които не участват, ще могат волю или неволю да търгуват с AI, както намерят за добре. Всички тези други нации се опитват да направят правилното нещо. За съжаление, те ще бъдат затънали в правенето на правилното нещо, но тези други извънредни нации безразсъдно правят каквото искат.

Негодници, негодници, недоволни.

Или може да се възприемат като справедливи, гъвкави и героични в своите търговски практики и договорености с ИИ.

Говорейки за споразумения за търговия с ИИ, ето десет от крайъгълните подходи, които идентифицирах по тази тема:

  • Раздаването на AI: Нацията дава своя AI на друга нация срещу нищо в замяна (трудно е да си представим, че нищо не се очаква, рядкост или несъществуващ)
  • AI Straight Ahead Trade: Нацията дава своя AI на друга нация при търговия за някакъв AI, който другата нация има (директна търговия AI срещу AI)
  • Търговията с AI с ливъридж: Нацията дава своя ИИ на друга нация при търговия за нещо друго от естество, което не е ИИ (напр. петрол, зърно, храна, коли, оръжия и т.н.).
  • Търговия с изкуствен интелект в развиващата се нация: Nation дава своя AI на развиваща се нация като средство за насърчаване или подпомагане на развиващата се нация
  • Най-високата търговия с изкуствен интелект: Нацията дава своя AI на друга нация, но проваля търговията, като предава бижутата на короната на AI срещу нищожна сума в замяна
  • Търговската измама с изкуствен интелект: Нацията дава своя AI на друга нация за някакъв търгуван аспект, но без знанието на другата нация, AI е глупост (това е измама)
  • Многостранната търговия с изкуствен интелект: Нацията дава своя AI на друга нация срещу колективен и сложен куп действителни и очаквани търгувани предмети в замяна
  • Многонационалната търговия с изкуствен интелект Dominos: Нацията дава своя AI на друга нация, докато получаващата нация търгува с AI на друга нация и тази нация предоставя нещо като връщане на нацията, която е започнала последователността (сложен взаимосвързан набор или поредица от сделки)
  • Търговията с изкуствен интелект на троянския кон: Нацията дава своя AI на друга нация, въпреки че AI съдържа някакъв вид троянски кон, така че даващата нация ще има някакъв лост или измама над получаващата нация
  • Други AI търговски практики

Обмислете тези видове споразумения за търговия с ИИ.

Сигурен съм, че ще видим тези практики за търговия с изкуствен интелект в действие, въпреки че това може да се пази в тайна и широката общественост няма да знае, че се случват тези шенанигани.

Заключение

Мисля, че почти всички можем да се съгласим, че трябва да правим нещо относно търговията на ИИ между нации.

Тънкият въпрос е какво можем или ще направим.

Някои казват, че трябва да бъдем спокойни. Други възкликват, че трябва да бъдем силни, въоръжавайки AI търговията от нации. Друга гледна точка е, че може би трябва да се съсредоточим само върху ИИ от определен вид, когато обсъждаме търговските практики. Например Законът за ИИ на ЕС постулира различни нива на риск от ИИ, вижте моето покритие на връзката тук. Може да се каже, че търговията с ИИ в националната държава се прилага само за най-високите нива на риск от ИИ.

Може би за момента ще правим само ръкопис. Във всеки случай дръжте под ръка моя списък със споразумения за търговия с изкуствен интелект. Списъкът ще ви е необходим, след като търговията с изкуствен интелект по нации стане гореща тема (ще отбележи думите ми).

Надявам се, че е очевидно, че етиката на ИИ и Законът за ИИ са неразделна част от цялата тази тема. Тези, които извършват сериозна и отрезвяваща работа по етичния AI и законите за AI, могат съществено да помогнат в разгадаването на главоблъсканицата за търговия с AI в националната държава. Същите видове умения за изследване на обществените съображения, когато става въпрос за ИИ, несъмнено са приложими в този конкретен случай на употреба.

Последен коментар засега.

Търговците на коне имат свой собствен език.

Ако търговец ви каже, че конят е изключително внимателен и не позволява много да го заобиколи, можете да предположите, че това означава, че конят е особено внимателен и силно осъзнава заобикалящата го среда. Изглежда идеално. От друга страна, една по-разумна интерпретация от школата на жестоките удари е, че конят вероятно е плашлив и реагира и на най-малкото разсейване. Представете си, че се опитвате да яздите такъв кон, тъй като той постоянно се отклонява от стояща крава или ястреб, летящ лениво отгоре.

Друга бърза шега, която търговецът може да опита е, че конят е сравнително кротък и рядко дава пари. Разбира се, това може да е фина издайническа следа, че конят е известен с това, че развълнувано се бори, може би в най-лошия момент. Може да яздите и вашият кон неочаквано да ви отблъсне, когато сте в средата на кактус или тръс през бързо движещ се поток.

Една от най-известните поговорки за конете е, че не бива да гледате подарения кон в устата.

Повдигам това, за да заплета поговорката в сферата на изкуствения интелект. Ако получим предложение от друга нация да търгуваме с AI с тях и ако те ни кажат, че техният AI е идеален и рядко печели пари, моля, уверете се, че ще разгледаме внимателно устата на този AI звяр. Може да е AI, който със сигурност не искаме.

Като алтернатива може AI да реши, че със сигурност не ни иска (мрачен резултат, ако ме разбирате).

Източник: https://www.forbes.com/sites/lanceeliot/2022/12/09/nations-trading-their-ai-as-geopolitical-bargaining-chips-raises-angst-for-ai-ethics-and- ai-law/