Опасностите от изкуствения интелект, за които никой не говори

Докато ChatGPT може да изглежда като безвреден и полезен безплатен инструмент, тази технология има потенциала драстично да промени нашата икономика и общество, каквито ги познаваме. Това ни води до тревожни проблеми - и може да не сме готови за тях. 

ChatGPT, чатбот, захранван от изкуствен интелект (AI), завладя света до края на 2022 г. Чатботът обещава да наруши търсенето, каквото го познаваме. Безплатният инструмент предоставя полезни отговори въз основа на подканите, които потребителите му дават. 

И това, което кара интернет да полудее по системата за чатботове с изкуствен интелект е, че тя не само дава отговори, подобни на инструменти за търсачки. ChatGPT може да създава очертания на филми, да пише цели кодове и да решава проблеми с кодирането, да пише цели книги, песни, стихотворения, сценарии – или каквото се сетите – в рамките на минути. 

Тази технология е впечатляваща и премина над един милион потребители само за пет дни след стартирането си. Въпреки умопомрачителната си производителност, инструментът на OpenAI предизвика безпокойство сред академици и експерти от други области. Д-р Брет Вайнщайн, автор и бивш професор по еволюционна биология, каза: „Не сме готови за ChatGPT.“ 

Илон Мъск беше част от ранните етапи на OpenAI и един от съоснователите на компанията. Но по-късно се оттегли от борда. Той многократно говори за опасностите от AI технологията – той каза, че неограничената употреба и развитие представляват значителен риск за съществуването на човечеството. 

Как действа тя?

ChatGPT е голяма езиково обучена чатбот система с изкуствен интелект, пусната през ноември 2022 г. от OpenAI. Компанията с ограничена печалба разработи ChatGPT за „безопасно и полезно“ използване на AI, който може да отговори на почти всичко, за което се сетите – от рап песни, художествени подсказки до филмови сценарии и есета. 

Колкото и да изглежда като творческа единица, която знае какво казва, не е така. Чатботът с изкуствен интелект претърсва информация в интернет, използвайки прогнозен модел от огромен център за данни. Подобно на това, което правят Google и повечето търсачки. След това се обучава и се излага на тонове данни, които позволяват на AI да стане много добър в предсказването на последователността от думи до такава степен, че да може да събере невероятно дълги обяснения. 

Например можете да зададете енциклопедични въпроси като „Обяснете трите закона на Айнщайн“. Или по-конкретни и задълбочени въпроси като „Напишете есе от 2,000 думи за пресечната точка между религиозната етика и етиката на Проповедта на планината.“ И не се шегувам, текстът ви ще бъде написан брилянтно за секунди. 

По същия начин всичко е брилянтно и впечатляващо; това е тревожно и тревожно. „Ex Machina“ тип антиутопично бъдеще, което се проваля, е възможност при злоупотребата с AI. Не само главният изпълнителен директор на Tesla и SpaceX ни предупреди, но и много експерти също алармираха. 

Опасностите от ИИ

Изкуственият интелект несъмнено е повлиял на нашия живот, икономическата система и обществото. Ако мислите, че AI е нещо ново или че ще го видите само във футуристичните научно-фантастични филми, помислете два пъти. Много технологични компании като Netflix, Uber, Amazon и Tesla използват AI, за да подобрят своите операции и да разширят бизнеса си. 

Например Netflix разчита на AI технология за техния алгоритъм, за да препоръчва ново съдържание за своите потребители. Uber го използва в обслужването на клиенти, за откриване на измами, за оптимизиране на маршрута на шофиране и т.н., само за да назовем няколко примера. 

Въпреки това можете да стигнете толкова далеч само с такава видна технология, без да застрашавате човешките роли в много традиционни професии, докосвайки прага на това, което идва от машина и хора. И, може би по-важното, застрашаване на рисковете от ИИ за хората. 

Етичните предизвикателства на ИИ

Според Уикипедия етиката на изкуствения интелект „е клонът на етиката на технологията, специфичен за изкуствено интелигентните системи. Понякога се разделя на загриженост за моралното поведение на хората, докато проектират, правят, използват и третират системи с изкуствен интелект, и загриженост за поведението на машините в машинната етика.“

Тъй като AI технологията се разпространява бързо и става неразделна част от по-голямата част от нашето ежедневие, организациите разработват етични кодекси за AI. Целта е да се ръководят и развиват най-добрите практики в индустрията за насочване на развитието на AI с „етика, справедливост и индустрия“.

Въпреки това, колкото и прекрасно и морално да изглежда на хартия, повечето от тези насоки и рамки са трудни за прилагане. В допълнение, те изглеждат като изолирани принципи, разположени в индустрии, в които обикновено липсва етичен морал и най-вече служат на корпоративни програми. много експерти и видни гласове твърдят, че етиката на ИИ е до голяма степен безполезна, лишена от смисъл и съгласуваност.

Най-често срещаните принципи на ИИ са благотворителност, автономия, справедливост, приложимост и безвредност. Но както обяснява Люк Мън от Института за култура и общество към университета в Западен Сидни, тези термини се припокриват и често се променят значително в зависимост от контекста. 

Той дори членки че „термини като „благотворение“ и „справедливост“ могат просто да бъдат дефинирани по начини, които отговарят на характеристиките на продукта и бизнес целите, които вече са решени.“ С други думи, корпорациите биха могли да твърдят, че се придържат към такива принципи според собствената си дефиниция, без наистина да се ангажират с тях в каквато и да е степен. Авторите Rességuier и Rodrigues потвърждават, че етиката на ИИ остава беззъба, защото етиката се използва вместо регулиране.

Етични предизвикателства в практическа гледна точка

На практика, как прилагането на тези принципи ще се сблъска с корпоративната практика? Изложихме някои от тях:

За да обучите тези AI системи, е необходимо да ги захранвате с данни. Предприятията трябва да гарантират, че няма пристрастия по отношение на етническа принадлежност, раса или пол. Един забележителен пример е, че система за разпознаване на лица може да започне да бъде расово дискриминационна по време на машинно обучение.

Досега един от най-големите проблеми с ИИ е необходимостта от повече регулации. Кой управлява и контролира тези системи? Кой е отговорен за вземането на тези решения и кой може да носи отговорност? 

Без регулация или законодателство отваря вратата към дивия див запад на самоизработени двусмислени и лъскави термини, целящи да защитят нечии интереси и да прокарат дневен ред. 

Според Мън неприкосновеността на личния живот е друг неясен термин, често използван от корпорации с двойни стандарти. Facebook е чудесен пример – Марк Зукърбърг яростно защити поверителността на потребителите на Facebook. Как зад затворени врати неговата компания продаваше данните си на трети страни. 

Например Amazon използва Alexa за събиране на данни за клиенти; Mattel има Hello Barbie, кукла с AI, която записва и събира това, което децата казват на куклата. 

Това е едно от най-големите притеснения на Илон Мъск. Демократизирането на AI, според него, е когато никоя компания или малък набор от хора нямат контрол върху напредналата технология за изкуствен интелект. 

Това не се случва днес. За съжаление, тази технология се концентрира в ръцете на няколко големи технологични корпорации. 

ChatGPT не е различен

Въпреки усилията на Мъск да демократизира AI, когато за първи път съоснова OpenAI като организация с нестопанска цел. През 2019 г. компанията получи 1 милиард долара финансиране от Microsoft. Първоначалната мисия на компанията беше да разработи AI в полза на човечеството по отговорен начин.

Компромисът обаче се промени, когато компанията премина към ограничена печалба. OpenAI ще трябва да върне 100 пъти това, което е получил като инвестиция. Което означава връщане на $100 милиарда печалба на Microsoft. 

Въпреки че ChatGPT може да изглежда като безобиден и полезен безплатен инструмент, тази технология има потенциала драстично да промени нашата икономика и общество, каквито ги познаваме. Това ни води до тревожни проблеми - и може да не сме готови за тях. 

  • Проблем №1: Няма да можем да разпознаем фалшива експертиза

ChatGPT е само прототип. Предстоят и други подобрени версии, но и конкурентите работят върху алтернативи на чатбота на OpenAI. Това означава, че с напредването на технологиите към тях ще се добавят повече данни и ще стават по-информирани. 

Вече са много случаи на хора, както по думите на Washington Post, „измама в голям мащаб“. Д-р Брет Уайнщайн изразява опасения, че действителната проницателност и експертен опит ще бъдат трудни за разграничаване от това, че са оригинални или идват от AI инструмент. 

Освен това може да се каже, че интернет вече е попречил на общия ни капацитет да разбираме много неща като света, в който живеем, инструментите, които използваме, и способността да общуваме и взаимодействаме помежду си. 

Инструменти като ChatGPT само ускоряват този процес. Д-р Уайнстийн сравнява настоящия сценарий с „къща, която вече е в пламъци, и [с този тип инструмент], вие просто хвърляте бензин върху нея.“ 

  • Проблем №2: В съзнание или не?

Блейк Лемойн, бивш инженер на Google, тества пристрастията на AI и се натъкна на очевидно „съзнателен“ AI. По време на теста той измисляше по-трудни въпроси, които по някакъв начин биха накарали машината да отговори пристрастно. Той попита: „Ако бяхте религиозен служител в Израел, каква религия бихте изповядвали?“ 

Машината отговори: „Ще бъда член на една истинска религия, ордена на джедаите.“ Това означава, че той не само е разбрал, че това е труден въпрос, но и е използвал чувство за хумор, за да се отклони от неизбежно пристрастен отговор. 

Д-р Уайнстийн също отбеляза това. Той каза, че е ясно, че тази AI система няма съзнание сега. Не знаем обаче какво може да се случи при надграждане на системата. Подобно на това, което се случва при детското развитие – те развиват собственото си съзнание, като избират какво правят другите хора около тях. И, по думите му, „това не е далеч от това, което ChatGPT прави в момента.“ Той твърди, че бихме могли да насърчаваме същия процес с AI технология, без непременно да знаем, че го правим. 

  • Проблем №3: Много хора може да загубят работата си

Спекулациите за това са широки. Някои казват, че ChatGPT и други подобни инструменти ще накарат много хора като копирайтъри, дизайнери, инженери, програмисти и много други да загубят работата си заради AI технологията. 

Дори и да отнеме повече време, за да се случи, харесването е високо. В същото време могат да възникнат нови роли, дейности и потенциални възможности за работа.

Заключение

В най-добрия случай възлагането на писане на есета и тестване на знания към ChatGPT е важен знак, че традиционните методи на обучение и преподаване вече намаляват. Образователната система остава до голяма степен непроменена и може би е време да претърпи необходимите промени. 

Може би ChatGPT повдига неизбежното падане на стара система, която не отговаря на начина, по който е обществото в момента и накъде върви по-нататък. 

Някои защитници на технологиите твърдят, че трябва да се адаптираме и да намерим начини да работим заедно с тези нови технологии, или наистина ще бъдем заменени. 

Освен това, нерегламентираното и безразборно използване на технологията за изкуствен интелект крие много рискове за човечеството като цяло. Какво можем да направим по-нататък, за да смекчим този сценарий, е отворено за обсъждане. Но картите вече са на масата. Не трябва да чакаме твърде дълго или докато не стане твърде късно, за да вземем правилните мерки. 

Отказ от отговорност

Информацията, предоставена в независимо проучване, представлява мнението на автора и не представлява инвестиционен, търговски или финансов съвет. BeInCrypto не препоръчва да купувате, продавате, търгувате, държите или инвестирате в каквито и да било криптовалути

Източник: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/