Моментът Cry Wolf на AI Hype е безполезен

Въпреки че съм човек, който изучава сценарии за края на човечеството, вярвам, че „експертното писмо“, предлагащо 6-месечен мораториум върху ИИ, или по-скорошното изявление, че рискът от ИИ е на нивото на пандемия и ядрен риск, са преувеличени. Още по-безумното мнение, че трябва да спрем ИИ, е безотговорно. Всяко безпокойство трябва да е пропорционално на рисковете, пред които сме изправени. В момента не сме в непосредствена опасност от ИИ.

Настоящите изкуствени интелекти не са в състояние да превземат обществото. Те нямат чувства и не заслужават защита, както човешкият живот. Те не са свръхинтелигентни и не превъзхождат хората по никакъв общ начин. Всъщност те изобщо не мислят. В момента, ако се захранват с изобилие от данни, изкуственият интелект е много добър в специфични задачи като изчисляване и прогнозиране. Това не е притеснително, това са функции, които тези системи имат по дизайн. Обещанията на AI включват разрешаване на рака, трансформиране на промишленото производство, моделиране на бъдещи сценарии и управление на екологични предизвикателства. Имайки предвид това, има основателни причини да критикуваме настоящите ИИ за използване на ресурси, прозрачност, пристрастия, киберсигурност и бъдещото им въздействие върху заетостта.

ИИ са скъпи от изчислителна гледна точка, което означава, че са огромна загуба на оскъдна енергия от изкопаеми горива. Това трябва да се реши незабавно. Но това не е екзистенциален въпрос, а въпрос на рационално използване на ресурсите. Фактът, че ИИ, които разчитат на големи и неефективни модели на данни, стават твърде скъпи за проследяване и разследване от академичните среди или правителството, е истински проблем. Но това е незабавно поправимо. Консорциуми от елитни академични институции или правителства биха могли да се обединят и да споделят изчислителни ресурси по начина, по който го направиха за суперкомпютрите.

Големите езикови модели (LLM) са AI модели, които могат да генерират текстове на естествен език от големи количества данни. Един проблем с това е, че тези текстове са пряко извлечени от честния интелектуален принос на други хора. Те всъщност са откраднати. Generative AI, по-специално, рекомбинира както потребителски, така и организационни данни, както и творческо съдържание в грубо нарушение на авторските права. Това е сериозно, но не и екзистенциално, освен това ЕС, лобистите от Холивуд и „петте големи” книгоиздатели вече са по случая. Очаквайте това да забави тежестта на AI. При сегашната скорост ИИ ще изчерпят своите добри данни за обучение много преди да се доближат до чувствителност.

Алгоритмите, които вече се използват за изчисляване на нашите данъци, избор на нашите онлайн емисии или вкарване на хора в затвора, имат поразителна липса на прозрачност. Това обаче е така от години и няма нищо общо с най-новите разработки на AI. Пристрастието на AI е функция, а не грешка. Стереотипите всъщност са основният подход, чрез който работят подобни модели. Освен че предразсъдъците са скрити в непроницаеми слоеве от машинни разсъждения, неуловими за хората, експерти или не. Това, което трябва да поставим под въпрос, е мъдростта на разработчиците, които са разработили такива системи, а не възможностите на създадената от тях система, която е даденост. Системите рядко ще бъдат по-добри от мъдростта или намеренията на онези, които ги изграждат или управляват.

Данните за обучение на AI отразяват пристрастията, присъстващи в обществото, от което са събрани тези данни. Повторното използване на лоши данни за обучение е тревожна практика, която вече замърсява AI моделите. Настоящите подходи на AI просто усилват отклонението, за да се стигне бързо до резултат. Това, разбира се, е обратното на това, което искаме. Това, което искаме да направим, е да използваме технология, за да защитим човешката грешка. Притеснението за грешка на машината е разточително използване на човешкия интелект.

Въпреки метафората за „невронна мрежа“, настоящите ИИ не приличат на мозъци от въображението. Сегашните AI системи не могат да разсъждават по аналогия, както правят хората. Това е добре. Всъщност може да не искаме този вид подравняване на AI, за което фанатиците се застъпват и се опитват да подражават. Машините трябва да са различни от хората. Така можем да увеличим взаимно силните си страни. И как можем да поддържаме машините различни и отделни. Машините не трябва да имат интереси, които да подравняват.

ИИ все повече представлява значителна заплаха за киберсигурността като актив за престъпниците и враждебните държави. Но киберсигурността е зряла индустрия с много експерти, добре подготвени да се справят с предизвикателството. Няма причина за спиране на AI поради опасения за киберсигурността.

Прекъсването на заетостта поради ИИ е проблем на политиката от години, първо с роботите, сега със софтуерно базирани системи с ИИ. Това означава, че правителствата ще бъдат готови да се справят с него. Проучването на MIT Work of The Future установи, че загрижеността за безработицата поради роботите е преувеличена. Хората винаги са намирали начини да работят и ще го правят и в бъдеще. Ще бъде ли трансформирано производството от AI? Това вече се случва, но по доста контролиран начин.

От време на време AI страда от пресилени обещания относно текущата функционалност или бъдещия обхват. Първите зими на ИИ започнаха през 1974–1980 г., когато правителството на САЩ оттегли финансирането си. Вторият е от 1987-1993 г., когато разходите ескалираха и AI не успя да изпълни високите си обещания.

В очакване да пристигнат нови парадигми, в периода 2025–2030 г. вероятно ще навлезем в трета AI зима. Поне в сравнение с горещото AI лято, което ни обещават. Причината е, че въпреки шума, поради всички причини, посочени по-горе, големите езикови модели са на път да достигнат максималната си полезност и в крайна сметка ще трябва да бъдат заменени от изчислително по-елегантни подходи, които са по-прозрачни.

Един такъв кандидат е хиперизмерното изчисление, което би накарало машините да разсъждават по-ефективно, защото дават на машините семантично разбиране, способността да обработват значение и контекст зад информацията от реалния свят. В момента AI системите не разбират връзките между думи и фрази, те просто са добри в догадките. Това е недостатъчно. В крайна сметка ще се нуждаем от въплътен AI, защото мисленето е свързано с възприемането на пространството. Това определено е така в производството, което е силно физическа игра. Ще се нуждаем също така от AI, който е способен на функции на човешката памет, като например приоритизиране въз основа на извеждане на преден план на част от информацията и на фона на друга информация. Забравянето е инструмент, който хората използват за абстрактно мислене, преминаване от остарели организационни практики, вземане на решения и за оставане в момента и не е просто недостатък. Никоя машина все още не може да направи това много добре.

Междувременно трябва да регулираме, но не тази секунда. И когато регулираме, е по-добре да го правим добре. Лошото регулиране на ИИ вероятно ще влоши ситуацията. Събуждането на регулаторите за това предизвикателство може да бъде полезно, но не съм сигурен, че сегашното поколение регулатори са готови за такъв вид радикални промени, които биха били необходими, за да се справят добре. Това би довело до ограничаване на мощни компании (вероятно всички регистрирани компании), ограничаване на използването на AI в управлението и би означавало огромни промени в начина, по който в момента работят потребителските пазари. По същество ще трябва да пренастроим обществото. Това ще ни доведе до отслабване няколко десетилетия по-рано, отколкото бихме искали. Предизвикателството за прозрачност около AI може да е по-страшно от контролните променливи, за които всички изглеждат толкова притеснени, не че не са свързани, разбира се.

Освен това не можем да се тревожим еднакво всеки път, когато бъде достигнат бенчмарк за ИИ. Трябва да запазим енергията си за наистина големи моменти на каскаден риск. Те ще дойдат и честно казано не сме подготвени. Моите предвидени бъдещи сценарии (вижте Сценарии за изчезване за 2075 г.) включват масивни пробиви на данни, които държат цели държави заключени извън техните собствени процеси в продължение на месеци. Също така се тревожа за ИИ, които се подпомагат от престъпни групи или държавни актьори. Най-вече се тревожа за комбинации от AI, нанотехнологии, синтетична биология и квантова технология – почти невидим квази-органичен интелект с неизвестни способности, може би само след няколко десетилетия, случващ се точно когато светът ще бъде погълнат от каскадните ефекти на климата промяна.

Настоящите модели на ИИ все още не работят достатъчно добре, за да бъдат заплаха за човечеството. Преди да можем да обмислим тяхното изключване, се нуждаем от по-добри ИИ. Нещо повече, имаме нужда от по-мъдри разработчици, по-чувствителни граждани и по-добре информирани политици. Нуждаем се също от концепция за това КАК да регулираме ИИ. Но това може да се направи, без да се забавя нищо. Това ще бъде образователно пътуване за всички. Писмото за мораториум относно GPT 4 (2023 г.) е ужасен момент, който само леко прилича на каскадните рискове, пред които е изправено човечеството през следващите десетилетия. Поставянето на риска от ИИ на нивото на пандемичен риск и ядрен риск през 2023 г. е преждевременно. Ще стигнем ли до там Може би. Но плачещият вълк има последствия. Това изсмуква кислорода от предстоящите дебати за истински страхове.

Източник: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/