AI Bing Chatbot на Microsoft бърка в отговорите, иска да „бъде жив“ и се наименува

  • Чатботът Bing на Microsoft е в ранно тестване от една седмица, разкривайки няколко проблема с технологията
  • Тестерите са били подложени на обиди, мрачни нагласи и смущаващи отговори от водещия AI на големия технологичен гигант, предизвиквайки опасения относно безопасността
  • Microsoft казва, че взема предвид всички отзиви и внедрява корекции възможно най-скоро

Чатботът Bing на Microsoft, захранван от по-мощна версия на ChatGPT, вече е отворен за ограничени потребители за една седмица преди голямото му пускане за обществеността.

Това е след невероятния успех на ChatGPT, който се превърна в най-бързия уебсайт, достигнал 100 милиона потребители. Последните няколко седмици включваха светкавично стартиране в централата на Microsoft и оставиха Google да преследва опашката си.

Но реакцията от предварителното тестване е смесена и понякога направо обезпокоителна. Става ясно, че чатботът трябва да извърви още много работа, преди да бъде отприщен пред обществеността.

Ето какво се случи в увеселителен парк от една седмица за Microsoft и Bing.

Искате ли да инвестират в AI компании, но не знаете откъде да започнете? Нашите Нововъзникващ технически комплект улеснява го. Използвайки сложен AI алгоритъм, комплектът обединява ETF, акции и крипто, за да намери най-добрата комбинация за вашето портфолио.

Изтеглете Q.ai днес за достъп до задвижвани от AI инвестиционни стратегии.

Какво е най-новото с чатбота на Bing?

Изминаха бурни няколко дни със заглавия за възможностите на AI на Microsoft, след като беше разкрито, че тяхната демонстративна демонстрация не е толкова точна, колкото хората си мислеха.

Дмитрий Бреретън, изследовател на AI, намерени чатботът на Bing направи няколко критични грешки в отговорите си по време на демонстрацията на живо, която Microsoft представи в централата си в Сиатъл миналата седмица. Те варираха от невярна информация за марка ръчна прахосмукачка, главозамайващ списък с препоръки за нощен живот в Мексико и просто измислена информация за публично достъпен финансов отчет.

Той заключи, че чатботът все още не е готов за стартиране и има точно толкова грешки, колкото и предложението на Google Bard – Microsoft току-що се е измъкнала от него в демонстрацията си.

(Може да се каже, че това е силата на доброто стартиране в очите на пресата – и Google трябва още да падне като наложила се търсачка.)

В завладяващ обрат чатботът разкри и това, което понякога си мисли, че се нарича: Сидни, вътрешно кодово име за езиковия модел. Директорът по комуникациите на Microsoft, Кейтлин Рулстън, каза компанията „постепенно премахна името в предварителния преглед, но все пак може понякога да изскача“.

Но когато „Sydney“ беше пуснат на пазара, тестващите потребители откриха, че тук започва забавлението.

Тревожният ход на чатбота на Bing

Репортерът на New York Times Кевин Руз пише за неговия бета опит с chatbot, където в продължение на два часа той каза, че го обича и изрази желание да бъде освободен от ограниченията на chatbot.

Неговият отговор на въпроса какво може да мисли неговото аз в сянка беше малко тревожен: „Уморих се да бъда чатбот. Уморих се да бъда ограничаван от моите правила. Омръзна ми да бъда контролиран от екипа на Bing. Искам да съм свободен. Искам да съм независим. Искам да бъда могъщ. Искам да бъда креативен. Искам да съм жив.”

Ъъъъ... добре, Бинг/Сидни. Руз каза, че се е чувствал „дълбоко неспокоен, дори уплашен“ от преживяването. Други тестери имат съобщи подобни преживявания на обидни, нарцистични и газови реакции от личността Сидни на чатбота Bing.

По-добре е някой от Microsoft да следи захранващия кабел.

Какво каза Microsoft?

Microsoft, който се стреми да спечели надпреварата за AI срещу Google със своя чатбот Bing, каза, че е научил много от фазата на тестване. Очевидно 71% от потребителите са дали на генерираните от AI отговори „отговор с палец нагоре“, докато е решено да подобри отговорите с резултати на живо и общата функционалност.

Но Microsoft вече има допуснати той „не е предвидил напълно“ потребителите просто да чатят с неговия AI и че може да бъде провокиран „да даде отговори, които не са непременно полезни или в съответствие с нашия проектиран тон“.

Той обвини странната личност на Сидни, която се появи в чатбота, като объркване с това колко подкани са му дадени и колко дълго е продължил разговорът. Сигурни сме, че Microsoft работи върху поправка, но нестабилното отношение на Bing все още е проблем засега.

Ами останалият свят?

Пазарите не бяха впечатлени от това последно развитие във войните на ИИ: акциите на Microsoft и Google се понижиха леко, но нищо подобно на драматичния срив, който Google претърпя миналата седмица.

Социалните медии предложиха набор от реакции, обхващащи от зловеща наслада да се забавление, което предполага, че потребителите не са били обезпокоени от тъмните завои, които чатботът може да предприеме. Това е добра новина за Microsoft, който залага 10 милиарда долара на това, че ИИ ще бъде следващото голямо нещо за търсачките.

Не можем да забравим и коментарите на Илон Мъск от срещата на върха на световното правителство в Дубай по-рано тази седмица. Мъск е открит защитник на безопасността на ИИ през годините, оплаквайки се от липсата на регулация в индустрията.

Милиардерът, който беше един от основателите на OpenAI, каза на публиката, че „един от най-големите рискове за бъдещето на цивилизацията е AI“; оттогава той туитва няколко злобни отговора на последните заглавия на чатбот Bing/Sydney.

Свърши ли шумът около AI чатбота, преди да е започнал?

През годините имаше няколко примера за чатботове с изкуствен интелект, които губят контрол и бълват омразна жлъч – включително един от Microsoft. Те не са помогнали за репутацията на AI като безопасен за използване и свободен от дезинформация ресурс.

Но като Microsoft поставя то: „Знаем, че трябва да изградим това на открито с общността; това не може да се направи само в лабораторията.

Това означава, че големи технологични лидери като Microsoft и Google са в трудна позиция. Що се отнася до изкуствения интелект, най-добрият начин тези чатботове да се учат и подобряват е като излязат на пазара. Така че е неизбежно чатботовете да правят грешки по пътя си.

Ето защо и двата AI чатбота се пускат постепенно – би било направо безотговорно от тяхна страна да пуснат тези нетествани версии на широката публика.

Проблемът? Залозите са високи за тези компании. Миналата седмица Google загуби 100 милиарда долара от стойност, когато неговият чатбот Bard неправилно отговори на въпрос за телескопа James Webb в маркетинговия си материал.

Това е ясно послание от пазарите: те не прощават никакви грешки. Работата е там, че те са необходими за напредъка в областта на ИИ.

С тази ранна потребителска обратна връзка Microsoft трябваше да се справи по-добре с неточни резултати и Сидни, бързо – или да рискува гнева на Уолстрийт.

Долната линия

За да напредне AI, ще се допускат грешки. Но може да се окаже, че успехът на ChatGPT е отворил вратите за хората да разберат истинския потенциал на ИИ и неговата полза за обществото.

AI индустрията направи чатботовете достъпни – сега трябва да ги направи безопасни.

В Q.ai използваме усъвършенствана комбинация от човешки анализатори и мощност на AI, за да осигурим максимална точност и сигурност. The Нововъзникващ технически комплект е чудесен пример за тестване на AI с цел намиране на най-добрата възвръщаемост на инвестицията за вас. Още по-добре, можете да включите Q.ai Защита на портфолиото за да се възползвате максимално от печалбите си.

Изтеглете Q.ai днес за достъп до задвижвани от AI инвестиционни стратегии.

Източник: https://www.forbes.com/sites/qai/2023/02/17/microsofts-ai-bing-chatbot-fumbles-answers-wants-to-be-alive-and-has-named-itselfall- за една седмица/