Експерти по ИИ подписват документ, сравняващ риска от „изчезване от ИИ“ с пандемии, ядрена война

Десетки експерти по изкуствен интелект (AI), включително изпълнителните директори на OpenAI, Google DeepMind и Anthropic, наскоро подписаха открито изявление, публикувано от Центъра за безопасност на AI (CAIS). 

Изявлението съдържа едно изречение:

„Намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война.“

Сред подписалите документа са истински „кой кой е“ от AI светила, включително „кръстникът“ на AI, Джефри Хинтън; Стюарт Ръсел от Калифорнийския университет в Бъркли; и Лекс Фридман от Масачузетския технологичен институт. Музикантът Граймс също е подписал, изброен в категорията „други забележителни фигури“.

Свързани: Музикантът Граймс желае да „раздели 50% хонорари“ с музика, генерирана от AI

Докато твърдението може да изглежда безобидно на повърхността, основното послание е донякъде противоречиво в общността на AI.

Привидно нарастващ брой експерти вярват, че настоящите технологии могат или неизбежно ще доведат до появата или развитието на AI система, способна да представлява екзистенциална заплаха за човешкия вид.

Техните възгледи обаче се противопоставят на контингент от експерти с диаметрално противоположни мнения. Главният учен по изкуствен интелект на Meta, Ян Лекун, например, отбеляза в много случаи, че не е задължително да вярва, че изкуственият интелект ще стане неконтролируем.

За него и други, които не са съгласни с реториката на „изчезването“, като Андрю Нг, съосновател на Google Brain и бивш главен учен в Baidu, AI не е проблемът, а отговорът.

От другата страна на аргумента, експерти като Хинтън и главният изпълнителен директор на Conjecture Конър Лийхи смятат, че ИИ на човешко ниво е неизбежен и като такъв моментът за действие е сега.

Не е ясно обаче към какви действия призовават подписалите декларацията. Изпълнителните директори и/или ръководителите на AI за почти всяка голяма компания за AI, както и известни учени от цялата академична общност, са сред подписалите, което прави очевидно намерението не е да се спре развитието на тези потенциално опасни системи.

По-рано този месец главният изпълнителен директор на OpenAI Сам Алтман, един от подписалите гореспоменатото изявление, се появи за първи път пред Конгреса по време на изслушване в Сената за обсъждане на регулирането на ИИ. Неговото свидетелство влезе в заглавия, след като той прекара по-голямата част от него, призовавайки законодателите да регулират неговата индустрия.

Altman's Worldcoin, проект, съчетаващ криптовалута и доказателство за личност, също наскоро обиколи медиите, след като набра 115 милиона долара във финансиране от серия C, което доведе общото му финансиране след три кръга до 240 милиона долара.

Източник: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war