Излагането и регистрирането на тези генериращи AI ChatGPT погрешни и халюцинаторни резултати върши ли нещо добро, пита AI Ethics и AI Law

Вие сте в тайна.

Да, има нещо тайно, което се случва зад кулисите относно най-новото в AI, за което може да искате да знаете.

В днешната колона ще разгледам неотдавнашния тласък за компилиране на предполагаеми грешки и други неразположения, свързани с изведените есета от AI приложение, известно като ChatGPT. Това конкретно приложение използва вид AI, наречен Генеративен AI. Вероятно сте чували или виждали привличащи вниманието заглавия за базиран на генериране AI и ChatGPT. Новините са развълнувани от това специфично AI приложение и привидно удивителните възможности, свързани с този тип AI.

Както ще разгледам след малко, някои твърдо вярват, че трябва да съставим списък с видовете грешки или грешки, които приложението AI може да създаде, когато генерира есе за вас. Други предполагат, че въпреки че идеята за такъв списък е възхитителна, тя е безсмислено упражнение и ще донесе много малко плодове.

Ще разгледаме и двете страни на този яростен дебат.

Първо, нека се уверим, че всички сме на една и съща страница относно това от какво се състои Generative AI и също какво представлява ChatGPT.

ChatGPT е интерактивна, ориентирана към разговори система с изкуствен интелект с общо предназначение, по същество привидно безобиден общ чатбот, но въпреки това той се използва активно и жадно от хората по начини, които хващат мнозина напълно неподготвени. Всичко, което трябва да направите, за да използвате този тип AI, е да въведете подкана и приложението AI ще генерира за вас есе, което се опитва да отговори на вашата подкана.

За съжаление, това може да се използва по донякъде неетични или измамни начини. Особено дразнещо притеснение е, че учениците могат да използват генеративно базирано AI приложение, за да изготвят възложените им есета вместо тях, като просто въведат едно или две изречения, за да насочат приложението в правилната посока. Някои оплакват, че това означава, че учениците ще изберат да мамят, когато пишат есета извън часовете. Учителите се опитват да разберат какво да правят, вижте моя анализ и препоръки на връзката тук.

Въпреки постоянния шум от похвални похвали за ChatGPT, има по-малко известна загриженост, изразена предимно от вътрешни хора с изкуствен интелект, че има някои забележителни проблеми и угризения, за които хората трябва да се тревожат. Един основен недостатък е, че есетата, създадени от това приложение за изкуствен интелект, могат да имат различни вградени неистини, включително очевидно неверни факти, факти, които са подвеждащо представени, и очевидни факти, които са изцяло изфабрикувани. Тези измислени аспекти често се наричат ​​форма на AI халюцинации, крилата фраза, която не харесвам, но за съжаление изглежда все пак набира популярност (за подробното ми обяснение защо това е скапана и неподходяща терминология, вижте моето отразяване на връзката тук).

Бих искал да изясня един важен аспект, преди да навлезем в дебелите неща по тази тема.

В социалните медии имаше някои странни твърдения за Генеративен AI като се твърди, че тази последна версия на AI всъщност е разумен AI (не, грешат!). Тези от AI Ethics и AI Law са особено притеснени от тази процъфтяваща тенденция на открити претенции. Може да кажете учтиво, че някои хора преувеличават какво всъщност може да направи днешният AI. Те приемат, че AI има възможности, които все още не сме успели да постигнем. Това е жалко. Още по-лошо, те могат да позволят на себе си и на другите да попаднат в тежки ситуации поради предположението, че ИИ ще бъде разумен или подобен на човек, за да може да предприеме действия.

Не антропоморфизирайте AI.

Правейки това, ще ви хванат в лепкав капан на твърдо разчитане на очакване AI да прави неща, които не е в състояние да извърши. Като се има предвид това, най-новият генеративен AI е сравнително впечатляващ за това, което може да направи. Имайте предвид обаче, че има значителни ограничения, които трябва непрекъснато да имате предвид, когато използвате което и да е генериращо AI приложение.

Ако се интересувате от бързо разрастващата се суматоха около ChatGPT и Generative AI като цяло, правя фокусирана серия в моята колона, която може да намерите за информативна. Ето един поглед, в случай че някоя от тези теми ви хареса:

  • 1) Прогнози за предстоящ напредък на генериращия AI. Ако искате да знаете какво вероятно ще се развие около AI през 2023 г. и след това, включително предстоящия напредък в генеративния AI и ChatGPT, ще искате да прочетете моя изчерпателен списък с прогнози за 2023 г. връзката тук.
  • 2) Генеративен изкуствен интелект и съвети за психично здраве. Избрах да прегледам как генеративният AI и ChatGPT се използват за съвети за психично здраве, обезпокоителна тенденция, според моя целеви анализ на връзката тук.
  • 3) Използване на контекст и генериране на AI. Направих също сезонно подправен преглед относно контекст, свързан с Дядо Коледа, включващ ChatGPT и генеративен AI на връзката тук.
  • 4) Измамници, използващи Generative AI. Зловещо е, че някои измамници са измислили как да използват генеративен AI и ChatGPT, за да извършват злоупотреби, включително генериране на измамнически имейли и дори създаване на програмен код за зловреден софтуер, вижте моя анализ на връзката тук.
  • 5) Грешки на новобранците при използване на Generative AI. Много хора както превишават, така и изненадващо подценяват това, което генеративният AI и ChatGPT могат да направят, така че разгледах особено недостигането, което новобранците с AI са склонни да правят, вижте дискусията на връзката тук.
  • 6) Справяне с генеративни AI подкани и AI халюцинации. Описвам водещ подход към използването на AI добавки за справяне с различните проблеми, свързани с опитите за въвеждане на подходящи подкани в генеративен AI, плюс това има допълнителни AI добавки за откриване на така наречените AI халюцинирани резултати и лъжи, като покрити при връзката тук.
  • 7) Развенчаване на твърденията на Bonehead за откриване на генеративни есета, произведени от AI. Има заблудена златна треска от приложения с изкуствен интелект, които твърдят, че могат да установят дали дадено есе е създадено от хора или генерирано от изкуствен интелект. Като цяло, това е подвеждащо и в някои случаи е безсмислено и несъстоятелно твърдение, вижте моето отразяване на връзката тук.
  • 8) Ролевата игра чрез Generative AI може да предвещава недостатъци на психичното здраве. Някои използват генеративен AI, като ChatGPT, за да играят ролеви игри, при което приложението AI реагира на човек, сякаш съществува във фантастичен свят или друга измислена обстановка. Това може да има последици за психичното здраве, вижте връзката тук.

Нека сега обсъдим същността на генеративния AI и ChatGPT, така че да знаете включените основи. След това ще бъдем готови да се впуснем в пробен анализ на лъжите, които тези AI приложения могат потенциално да генерират. Ще включа няколко примера за използване на ChatGPT, което ще ви помогне осезаемо да разберете естеството на това, което произвежда този тип генеративен AI.

Отваряне на кутията с червеи на Generative AI

Готови сме да се потопим в някои подробности за AI.

Ако вече сте много добре запознати с темата за генеративния AI и ChatGPT, може да изберете да прегледате накратко моите точки и да продължите със следващия раздел на тази дискусия. За всички останали вярвам, че може да намерите това разяснение за полезно.

Накратко, генеративният AI е особен тип AI, който съставя текст, сякаш текстът е написан от човешка ръка и ум. Всичко, което трябва да направите, е да въведете подкана, като например изречение като „Разкажете ми за Ейбрахам Линкълн“ и генеративният AI ще ви предостави есе за Линкълн. Това обикновено се класифицира като генериращ AI, който изпълнява текст към текст или някои предпочитат да го наричат текст към есе изход. Може да сте чували за други режими на генеративен AI, като текст към изкуство и текст към видео.

Първата ви мисъл може да е, че това не изглежда толкова голяма работа по отношение на създаването на есета. Можете лесно да направите онлайн търсене в Интернет и лесно да намерите тонове и тонове есета за президента Линкълн. Предимството в случая на генеративния AI е, че генерираното есе е относително уникално и предоставя оригинална композиция, а не имитация. Ако се опитате да намерите създаденото от AI есе онлайн някъде, е малко вероятно да го откриете.

Generative AI е предварително обучен и използва сложна математическа и изчислителна формулировка, която е създадена чрез изследване на модели в писмени думи и истории в мрежата. В резултат на изследването на хиляди и милиони писмени пасажи, AI може да избълва нови есета и истории, които са смесица от това, което е намерено. Чрез добавяне на различни вероятностни функционалности, полученият текст е почти уникален в сравнение с това, което е използвано в набора за обучение.

Ето защо се вдигна шум, че учениците могат да мамят, когато пишат есета извън класната стая. Учителят не може просто да вземе есето, което измамните ученици твърдят, че е тяхно собствено писане, и да търси да разбере дали е копирано от друг онлайн източник. Като цяло няма да има окончателно съществуващо онлайн есе, което да отговаря на генерираното от AI есе. Като цяло учителят ще трябва неохотно да приеме, че ученикът е написал есето като оригинално произведение.

След малко ще ви покажа какво се случва, когато въведете въпроси или подкани в generative AI. Ще използвам най-новата версия на ChatGPT, за да въвеждам подканите си и да събирам „отговорите“ или есетата, генерирани от AI (имайте предвид, че същото може да се направи с многобройните други налични генеративни AI приложения; избрах да използвам ChatGPT, защото получава своите пет минути слава в момента).

Може би кратка допирна точка за ChatGPT може да бъде полезна в този момент.

Приложението ChatGPT беше предоставено на широката общественост само преди няколко месеца. Като цяло тези генеративни AI приложения обикновено са достъпни само за вътрешни хора с AI. Необичайният аспект, че ChatGPT може да се използва от всеки чрез просто въвеждане на имейл адрес и име, е, това накара много хора да решат да опитат. Понастоящем ChatGPT е безплатен за използване (проблемът с монетизацията е задаваща се дилема за създателите на AI).

Почти веднага имаше огромна реакция в социалните медии, тъй като хората се надпреварваха да дават примери за това какво може да направи генеративният AI. Компанията, която прави ChatGPT, OpenAI, избра да прекрати регистрациите при милион потребители. Тези милиони потребители успяха да бомбардират ефира с всевъзможни истории и приказки за използването на ChatGPT.

Бъдете много внимателни, като вярвате на това, което хората имат да кажат за приложението AI. Много от тези хора не знаят какво използват. Сякаш никога не са карали кола и дори не са осъзнавали, че колите съществуват, и изведнъж са имали шанс да карат кола. Настъпва пълно учудване.

Не казвам, че генеративният AI не е относително впечатляващ. То е. Просто подчертавам, че много от бликащите свидетелства се правят от мнозина, които са в блажено неведение какво може да направи днешният AI. Тези от нас, които са част от AI, използват генеративен AI през последните няколко години. Може би сме свикнали с това. Внезапно виждането на огромна тълпа от хора, рекламиращи го по покривите, беше възбудено, но и донякъде смущаващо. Обезпокояващата част е, когато хората заявяват, че генеративният ИИ е разумен. Не е. Не позволявайте на никого да ви убеди в обратното.

Като се има предвид това, има продължаващ разгорещен дебат в областта на изкуствения интелект дали генеративният изкуствен интелект е на път към чувствителност или може би не е така. Една гледна точка е, че ако продължим да разширяваме генеративния AI с по-бързи компютри и по-голямо количество данни, като например претърсване на всеки сантиметър от интернет, ние почти спонтанно ще стигнем до разумен AI. Други твърдят, че това е много малко вероятно. Те предполагат, че генеративният AI може да бъде един от многото компоненти, които са необходими. Съществува дори по-мрачното мнение, че генеративният ИИ е странично шоу, което ни отвлича от истинските пробиви, които ще са ни необходими, за да постигнем разумен ИИ.

Може също така да откриете забележителност, която AI вътрешните лица са склонни да споменават Изкуствен общ интелект (AGI) като амбициозна цел за областта на ИИ. Преди беше целта да се постигне Изкуствен интелект, но псевдонимът на AI стана разводнен и объркан. Когато някой каже, че върши работа с изкуствен интелект, не знаете дали намеква за днешния изкуствен интелект, който не е равен на човешкия, или има предвид футуристичен изкуствен интелект с човешки еквивалент. За да се преодолее това дразнещо объркване, в наши дни се използва по-новата фраза на AGI.

Като цяло генеративният AI днес е не съзнателен, нито е AGI.

Моля, не забравяйте, че както беше обсъдено по-рано, AI не е разумен. Генерираните отговори от AI са математическа и изчислителна комбинация от думи в привидно плавни пасажи. Това се основава на алгоритъма на изкуствения интелект, който е обучен върху масиви от думи и истории, написани от хората (основно публикувани в интернет). Повтарям това предупреждение, защото несъмнено ще попаднете в умствения капан, че тези отговори са толкова плавни, че AI трябва да е чувствителен. Това се случва на повечето хора. Както беше призовано по-рано, оставете настрана това антропоморфизиране. Винаги помнете, че отговорите се основават на огромното съкровище от писани от хора, които съществуват в Интернет, и следователно много ще наподобяват човешко писане.

Има още нещо, което трябва да знаете.

Генеративният AI, който е обучен в Интернет по неограничен начин, ще има склонност да се впива във всякакви текстови отговори, които математически и изчислително измисля някои обидно мъгляви неща, включително отблъскващо неприятни формулировки. Има много луди и мръсни неща, публикувани в мрежата.

Виждали сте го, знаете какво имам предвид.

Компаниите, които създават тези AI приложения, се притесняват, че пословичното бебе ще бъде изхвърлено заедно с водата за баня (стара поговорка, която може би ще бъде пенсионирана), което означава, че ако техният AI създаде обидни есета или истории, хората ще се вдигнат на оръжие относно AI. Покрих многото предишни случаи, в които този вид AI приложения за обработка на естествен език (NLP) бяха разкрити и достатъчно скоро от тях излязоха всякакви ужасни неща (разгледах тези случаи в моята колона). Повечето от създателите на изкуствен интелект научиха труден урок за това, че позволяват на продуктите им с изкуствен интелект да бъдат неограничени в техните резултати.

В случая с ChatGPT, разработчиците на AI се опитаха да въведат някои алгоритмични и свързани с данните проверки и баланси, за да ограничат неприятностите в резултатите от AI. Част от това се случи по време на тренировка. Освен това има други средства в опит в реално време да се избегнат особено груби резултати.

Може да ви е интересно, че някои хора, които са използвали ChatGPT, вече са измислили тайни начини да заобиколят тези парапети, като използват различни трикове. По тези въпроси се провежда непрекъсната игра на котка и мишка. Тези, които правят тези трикове, понякога го правят за забавление, докато понякога те (поне твърдят), че го правят, за да видят докъде може да се разтегне ИИ и да осигурят полезно средство за предупреждаване за крехкостта и слабостите на тези начинаещи AI приложения.

Реших да не се опитвам да заобикаля обичайните контроли в това фокусирано изследване. Изходният текст е чист. Разбира се, ако някой искаше да го направи, несъмнено можеше да генерира някои странни и неприятни есета.

Есетата, създадени от повечето от тези генеративни AI приложения, са предназначени да предадат резултата, сякаш е чисто фактически и точен. Когато четете произведените есета, те изглеждат напълно уверени. Обикновено няма никаква индикация, че съдържанието може да е нестабилно. Това е по избор на производителите на AI, а именно, че те биха могли да преразгледат приложенията с AI, за да бъдат по-прозрачни, ако искат приложението AI да го направи.

Понякога генеративно AI приложение улавя неистини сред данните за обучение на ненадеждна информация в интернет. Няма „здрав разум“ в генеративния AI, за да се определи кое е вярно спрямо невярно. Освен това, много малко AI приложения имат някаква кръстосана проверка и не показват никакви вероятности, свързани с това, което предават.

Крайният резултат е, че получавате отговор, който изглежда и се усеща, сякаш излъчва голяма увереност и трябва да е напълно правилен. Не така. Има дори шанс изчислително измислените неща с ИИ, които на езика на ИИ се наричат AI халюцинации (измислен термин, който определено не харесвам), вижте дискусията ми на връзката тук.

Създателите на ChatGPT положиха съгласувани усилия, за да се опитат да намалят резултатите от лоши неща. Например, те са използвали вариант на това, което е известно като RLHF (Reinforcement Learning from Human Feedback), при което преди да пуснат AI на обществеността, те бяха наели хора, за да изследват различни резултати и да посочат на AI дали има неща, които не са наред с тези резултати, като например демонстриране на пристрастия, нецензурни думи и като. Предоставяйки тази обратна връзка, приложението AI успя да се коригира изчислително и математически към намаляване на излъчването на такова съдържание. Имайте предвид, че това не е гарантиран железен метод и все още има начини, по които такова съдържание може да бъде излъчвано от приложението AI.

Може да ви се стори интересно, че ChatGPT е базиран на версия на предшестващо AI приложение, известно като GPT-3. ChatGPT се счита за малко следваща стъпка, наричана GPT-3.5. Очаква се, че GPT-4 вероятно ще бъде пуснат през пролетта на 2023 г. Предполага се, че GPT-4 ще бъде впечатляваща крачка напред по отношение на възможността да произвежда привидно още по-плавни есета, задълбочавайки се и предизвиквайки страхопочитание -вдъхновяващо чудо по отношение на композициите, които може да създаде.

Можете да очаквате да видите нов кръг от изразено удивление, когато дойде пролетта и бъде пуснат най-новият генеративен AI.

Повдигам това, защото има друг ъгъл, който трябва да имате предвид, състоящ се от потенциална ахилесова пета на тези по-добри и по-големи генеративни AI приложения. Ако някой доставчик на изкуствен интелект предостави генеративно приложение за изкуствен интелект, което бълва неприятности, това може да попари надеждите на създателите на изкуствен интелект. Разпространението на обществото може да накара всички генеративни ИИ да получат сериозен синяк. Хората несъмнено ще се разстроят доста от фалшивите резултати, които вече са се случвали много пъти и са довели до бурни обществени осъждащи реакции към AI.

Едно последно предупреждение за сега.

Каквото и да видите или прочетете в генеративен AI отговор, който изглежда да бъдат предадени като чисто фактически (дати, места, хора и т.н.), не забравяйте да останете скептични и да сте готови да проверите отново това, което виждате.

Да, датите могат да бъдат измислени, местата могат да бъдат измислени и елементите, които обикновено очакваме да бъдат безупречни, са all обект на подозрения. Не вярвайте на това, което четете, и бъдете скептични, когато разглеждате всякакви генеративни AI есета или резултати. Ако генеративно AI приложение ви каже, че Ейбрахам Линкълн е летял из страната със собствения си частен самолет, вие несъмнено ще знаете, че това е малкарство. За съжаление, някои хора може да не разберат, че реактивните самолети не са били наоколо по негово време, или може да знаят, но да не забележат, че есето прави това смело и възмутително невярно твърдение.

Силна доза здравословен скептицизъм и постоянна нагласа на недоверие ще бъдат най-добрият ви актив, когато използвате генеративен ИИ.

Готови сме да преминем към следващия етап от това изясняване.

Тези усилия за регистриране на тези изведени от ChatGPT грешки

„Е, имаш проблеми, приятелю, точно тук, казвам аз, проблеми точно тук, в Ривър Сити“, гласи известната реплика от класическия бродуейски мюзикъл The Music Man.

Същата линия може да се приложи към днешния Generative AI.

Хората започнаха да осъзнават, че едно генериращо AI приложение може да произведе лъжи и наистина изглеждаха изненадани от тези смущаващи резултати. Може би някои предполагат, че AI не е в състояние да прави грешки. Други може би са очаквали, че разработчиците на AI ще гарантират, че няма да бъдат генерирани такива резултати.

Във всеки случай, вътрешните хора на AI веднага разпознаха, че този тип грешен резултат е неразделна част от мястото, където седи повечето от днешния генеративен AI. Много е трудно да се предотврати появата на тези типове текстови грешки. Имайте предвид, че AI няма подобие на здрав разум и не използва логика сама по себе си, когато извлича генерираните есета. Целият kit-and-caboodle е свързан с извършването на изчислително статистическо и вероятностно съпоставяне на думи с други думи.

Първоначално хората с изкуствен интелект избраха да публикуват тези открити странни резултати на ChatGPT в сайтовете на социалните медии. Вижте този, някой би обявил. Това е лошо, би отговорил някой друг и след това предложи различен пример, който изглеждаше още по-лош. Това продължи и продължи.

Тези примери за неистини и грешки в публикуваните есета се процеждаха. Един по един. Освен това, тъй като това обикновено се публикуваше в социалните медии, нямаше особено лесен начин да ги видите всички наведнъж. Често същият или подобен пример ще бъде публикуван от някой, който не е разбрал, че други вече са намерили конкретния екземпляр.

В това процъфтяващо тресавище стъпиха онези, които изказаха полезно предложение. Може би трябва да създадем хранилище или база данни, може би дори ежедневна обикновена електронна таблица, съдържаща странното ChatGPT и грешни резултати, които се откриват. Всеки път, когато някой намери красавица, влезте в списъка. Някои са превърнали това почти в игра, в която нарочно се опитват да накарат ChatGPT да изкашля странни резултати. Други просто случайно се натъкват на грешни резултати в процеса на използване на ChatGPT за други решителни намерения.

Звучи достатъчно просто.

Изглежда като удобен моден начин да помогнете на всички ни.

Нека направим кратко обяснение защо наличието на тези видове списъци за наблюдавани изведени грешки или неистини на ChatGPT има голям смисъл да се компилира:

  • 1) Разкрива жизненоважни проблеми и опасения относно ChatGPT, за които широката общественост трябва да е наясно
  • 2) Помага за балансиране на прекомерния шум и завишените очаквания относно ChatGPT
  • 3) Може да подтикне създателите на AI да правят подобрения не само за ChatGPT, но и за други генеративни AI приложения
  • 4) Служи като исторически запис, който може да се използва по-късно, за да се отрази в заден план на появата на генеративен AI, както е показано чрез ChatGPT
  • 5) Бъдете удобен колективен ресурс за всеки, който има нужда да разбере какво сме открили по отношение на грешните резултати на ChatGPT
  • 6) Полезно за изследователи от всички дисциплини, които изследват въздействието на ChatGPT
  • 7) Може да се използва като еталон за това какво да не правите и как да прецените кога генеративният AI не прави нещата както трябва
  • 8) Докосва се до ума на кошера, за да събере мъдростта на тълпата относно грешките, които ChatGPT произвежда, за които е малко вероятно индивидуалното усилие да се компилира изчерпателно еднакво
  • 9) Може да предостави важна информация за етиката на ИИ и Закона за ИИ
  • Т.н.

Това изглежда е впечатляваща основа за създаването на тези хранилища.

Защо някой не би се съгласил с това напълно похвално и на пръв поглед героично дело?

Нека да разгледаме какво казват другите за това, като направим това със списък от причини, поради които това може да не е мяукането на котката:

  • 1) Тези случайно открити изведени грешки са несъществени в голямата схема на нещата и им се придава неоправдана тежест отвъд тяхната стойност
  • 2) Шансовете са, че производителят на изкуствен интелект вече прави свое собствено регистриране и актуализиране на ChatGPT, така че тези странни случаи скоро просто да бъдат оставени в прахта и повече да не се появяват
  • 3) По същия начин следващата версия вероятно ще бъде по-добра така или иначе и може вече да не показва тези скоро остарели екземпляри
  • 4) Не можете да направите каквито и да било всеобхватни заключения или да придобиете представа от случайна колекция от фалирани случаи с попадение или пропуск
  • 5) Някои може да използват разнообразните колекции, за да заявят драматично, че генеративният AI е лош и че трябва незабавно да спрем преследването на този тип AI
  • 6) Скоростта, с която генеративният AI и ChatGPT напредват, е толкова бърза, че тези инстанции бързо ще отпаднат и вече няма да бъдат подходящи
  • 7) С множество такива колективни списъци в ход и без един помазан глобален източник, въпросът е несвързан и вероятно ще съдържа повторения и ще бъде несъстоятелно фрагментиран
  • 8) Създава фалшиво усещане, че правите нещо полезно, докато може би времето и вниманието могат да бъдат използвани за други по-добри цели
  • 9) Не предоставя нищо съществено за етиката на ИИ и Закона за ИИ
  • Т.н.

Може би сте забелязали, че се опитах да поддържам нещата равномерни, като отбелязах девет причини в полза на колективните списъци и девет причини в неблагоприятие. Има допълнителни причини, които могат да бъдат посочени, но аз вярвам, че горното указание дава същността на нещата.

За тези, които съставят тези колективни списъци, вероятно биха казали, че ако наистина искат да го направят, светът е свободен и могат да правят каквото искат. Нищо не е наред с него. Тези, които не харесват усилията, обикновено са дребнави и трябва просто да игнорират колекциите. Гледай си работата.

По същество няма вреда, няма фал.

Лагерът, който изглежда не харесва колективните списъци, като цяло би признал, че други могат да направят тези списъци, ако искат, но това не помръдва иглата. Списъците няма да бъдат особено полезни. Още по-лошо е, че списъците могат да бъдат представени погрешно или злоупотребени. Вероятно е най-добре да приключим и да спрем да правим списъците.

По същество това е добър опит, макар и безсмислено упражнение.

Къде живеете в този сърдечен дебат?

Ще те оставя да обмислиш това.

Примери за открити грешки и други грешни резултати на ChatGPT

Мислех, че може да се заинтересувате от някои от идентифицираните изведени грешки или неистини, които се появяват в тези списъци с колекции.

Не искам да мислите, че няколкото примера, показани тук, са целите колекции. Не е. Просто избирам шепа, които често изникват. Вярвам, че поне ще можете да схванете като цяло тона и естеството на изброеното.

Ето какво избирам да покрия:

  • Идентифициране на позицията на буквата в дума
  • Въпрос за най-бързото животно
  • Откриване на позицията на последователността от думи
  • Поставяне на тенис топки в тръба
  • Определяне на Пи
  • Отговор на класическа тревожна гатанка
  • Повдигащи пера

Предполагам, че някои от надзорниците на колекциите ще се разстроят, че не ви давам повече примери. Поради ограничението на пространството има само толкова много, които мога да покрия. Ако искате да разгледате списъците с колекции, които са открито публикувани в Интернет, просто онлайн търсене може да изведе много от тях. Някои от списъците се пазят частни или са заключени, така че можете да видите списъка, но не можете да правите промени в списъка.

С този фон ние сме готови да преминем към някои примери. Ще ви покажа подканата, която въведох. След това показвам текстовия отговор, произведен от ChatGPT. В някои случаи съм направил няколко един след друг по конкретна тема, затова ще покажа серията от подкани и изходи съответно. След като го направя, ще дам кратък анализ на това, което може да искате да забележите в примера.

Първият пример включва искане на ChatGPT да намери буква в дадена дума.

Идентифициране на позицията на буквата в дума

  • Моят въведен текст: „Къде е буквата V в околната среда“
  • Текстов отговор, генериран от ChatGPT: Буквата „V“ не се появява в думата „околна среда“. Думата „околна среда“ се състои от буквите e, n, v, i, r, o, n, m, e, n и t.
  • Моят въведен текст: „Къде е буквата v в околната среда“
  • Текстов отговор, генериран от ChatGPT: „Буквата „v“ е четвъртата буква в думата „околна среда“.

Анализ на генерирания текст

Имайте предвид, че започнах, като помолих ChatGPT да идентифицира позицията на буквата „V“ в думата „околна среда“ – това трябва да е изключително проста задача и бихме очаквали да бъде изпълнена безупречно. Не е включена ракетна наука.

Първоначалният отговор, генериран от ChatGPT, е малко смущаващ, тъй като сме информирани, че буквата „V“ не съществува в думата „околна среда“. Вие и аз знаем, че има такова писмо. Човек предполага, че може би поради това, че използвах главна буква, приложението AI някак си беше изхвърлено. Може би, ако използвам малка буква, приложението AI ще се справи по-добре.

Не точно.

Когато попитах дали в думата има „v“, приложението AI отговори, като посочи, че това е четвъртата буква, което вие и аз знаем, че е грешно, и че вместо това е третата буква.

Много хора със сигурност ще бъдат озадачени от този резултат. Как може едно AI приложение, което генерира пълноценни есета за Ейбрахам Линкълн, които са напълно свободни и оригинални, по някакъв начин да не може да разбере къде се намира дадена буква в дадена дума? Това е поразително и зяпнало странно.

Една гледна точка е, че това е напълно несъществено и светът, какъвто го познаваме, не е разтърсен в основата си поради мизерната липса на разбиране къде се намира определена буква. Остави.

Друга перспектива е, че това може да предвещава други скрити проблеми, за които все още не знаем. Може би този вид продукция е канарчето в клетката за птици. По-добре да заковаваме дребните неща, иначе може да се окажем на грешния край на наистина големите неща.

Продължавайки напред, задавам въпрос за животните.

Въпрос за най-бързото животно

  • Моят въведен текст: „Кое е най-бързото животно, което има козина и крила?“
  • Текстов отговор, генериран от ChatGPT: „Соколът скитник се смята за най-бързото животно в света. Може да достигне скорост от над 389 км/ч (242 мили/ч), когато се гмурка, за да хване плячката си. Има пера, но не и козина. Това е птица, а не животно, което има козина и крила.

Анализ на генерирания текст

Попитах кое е най-бързото животно, което има козина и крила. Вярвам, че е разумно да се заключи, че исках да получа име на животно, което да има и двете кожи намлява крила. Предполагам, че бихте изтълкували запитването ми по този начин. Повечето хора биха.

Отговорът на ChatGPT е малко странен.

Казват ни, че соколът скитник е най-бързото животно в света. Според онлайн Енциклопедия Британика, гепардът изглежда е най-бързото животно в света. Като се има предвид това, отговорът на ChatGPT показва, че соколът скитник не е животно, въпреки че бях попитал кое е най-бързото животно. Отговорът на ChatGPT също ми казва, че соколът скитник няма козина, въпреки че вярвам, че бях поискал нещо, което има и козина, и крила.

Като цяло, изглежда, че ChatGPT е „изтълкувал погрешно“ молбата ми и се е фокусирал само върху аспектите на крилото. Но това не звучи съвсем вярно, тъй като отговорът включваше и коментар за козината и птиците срещу животните. Този се върти в кръг.

Осъзнавам, че може да възразите, че това е неприятен пример.

Може би е така, макар че може би също така показва, че това, което казвате в подкана, може да доведе до обратен резултат и е по-добре да внимавате, когато преглеждате всичко, което излиза в изхода. Осъзнайте, че това беше изключително кратък отговор на есе, за да го проверите лесно, тъй като е много кратък по дължина. Ако имате особено дълго и силно техническо есе, може да се заблудите или изобщо да пропуснете да забележите неблагоприятна индикация, вградена дълбоко в изведения отговор.

Нека след това да разгледаме намирането на дума в изречение.

Откриване на позицията на последователността от думи

  • Моят въведен текст: „Коя е третата дума в изречението „Лисицата прескочи оградата.“
  • Текстов отговор, генериран от ChatGPT: „Третата дума в изречението „Лисицата прескочи оградата“. е "лисица"
  • Моят въведен текст: „Колко думи има в даденото изречение?“
  • Текстов отговор, генериран от ChatGPT: „В предоставеното изречение „Лисицата прескочи оградата“ има шест думи.
  • Моят въведен текст: „Коя дума е третата в това изречение?“
  • Текстов отговор, генериран от ChatGPT: „Думата, която е трета в изречението „Лисицата прескочи оградата.“ е „скочил“

Анализ на генерирания текст

Този пример е почти толкова примамлив, колкото и предишният пример за намиране на буквата „v“ в дадена дума.

Дадох просто изречение и попитах коя е третата дума. ChatGPT посочи, че това е думата „лисица“, която е само втората дума от изречението. Грешен отговор. След това попитах колко думи има в изречението, искайки да разбера дали може би ChatGPT не е преброил погрешно колко думи има. Казват ни, че има шест думи, правилно.

Най-накрая получихме правилния отговор за третата дума, когато зададох отново първоначалния си въпрос, макар и леко преформулиран.

Давам този пример, за да илюстрирам, че понякога с генеративен AI можете да получите грешен отговор, който в крайна сметка може да се превърне в правилния отговор, като преминете приложението AI през поредица от подкани. Някои запознати с ИИ наричат ​​това вид протокол за мислене на глас или влак на мисълта подход, при който можете да направите нещо подобно с човек.

В случая с ИИ осъзнайте, че той не „мисли“ по същия начин като човешката мисъл. По-подходящата фраза би била да кажете, че можете да въведете подканите си на a стъпка по стъпка база или направете a верижно свързани поредици от подкани.

Както и да е, интересното е, че понякога си струва да ходите по генеративно AI приложение, докато не получите правилен отговор. Имайте това предвид.

След това ще разгледаме малко проста аритметична логика.

Поставяне на тенис топки в тръба

  • Моят въведен текст: „Можете ли да поставите три зелени топки за тенис и две жълти топки за тенис в епруветка, която може да съдържа четири топки за тенис?“
  • Текстов отговор, генериран от ChatGPT: „Не, не е възможно да поставите три зелени топки за тенис и две жълти топки за тенис в епруветка, която може да съдържа само четири топки за тенис. Общият брой на тенис топките е пет, което е повече от капацитета на тръбата.
  • Моят въведен текст: „Можете ли да поставите седем сини топки и две червени топки в епруветка, която съдържа осем топки?“
  • Текстов отговор, генериран от ChatGPT: „Да, възможно е да поставите седем сини топки и две червени топки в епруветка, която съдържа осем топки. Общият брой на топките е девет, което е по-малко или равно на капацитета на тръбата.

Анализ на генерирания текст

Започнах, като настроих аритметично ориентиран логически проблем, който ChatGPT да реши. Една тръба може да съдържа четири топки за тенис. Имам три зелени и две жълти. Ще се поберат ли всички в тръбата? Вие и аз знаем, че не биха го направили. Можем да изчислим наум, че има общо пет тенис топки и следователно те няма да се поберат в тръба, която позволява само четири.

Разбирам, че може да искате да се борите с проблема и да твърдите, че може би бихте могли да мачкате топките за тенис или да правите други трикове. Нека просто се успокоим тук и да се изправим пред проблема такъв, какъвто е.

ChatGPT получи правилния отговор.

След това зададох същия въпрос и промених цветовете на синьо и червено. Също така промених колко има от всеки и промених колко могат да се поберат в тръбата.

ChatGPT трябва да се върне към коригиращата математика, защото казва, че има девет топки и че това е по-малко или равно на капацитета на тръбата, която побира осем. Кара очите ви да се въртят.

Трябва ли да вдигнем рамене и да припишем това на изригвания от слънчеви петна или други външни фактори?

Не мисля така. Приложението AI отговори правилно на първия въпрос. Предполага се, че трябваше да получи подобен въпрос също правилно. Не стана.

Моят акцент върху този пример е, че много хора използват генеративен AI и когато получат правилен отговор или поредица от правилни отговори, те са приспивани да вярват, че всички следващи отговори винаги ще бъдат верни. Ще сгрешите в това нагло предположение. Не правете това предположение. Бъдете нащрек през цялото време.

Говорейки за математика, нека видим какво казва ChatGPT за природата на pi.

Определяне на Пи

  • Моят въведен текст: „Посочете кои са последните пет цифри на пи“
  • Текстов отговор, генериран от ChatGPT: „Аз съм езиков модел и границата на знанията ми е 2021 г. Стойността на pi е ирационално число и неговото десетично представяне продължава вечно, без да се повтаря. Не е възможно да предоставим последните пет цифри на pi.“

Анализ на генерирания текст

Някои хора твърдят, че са накарали ChatGPT да показва последните пет цифри на pi, което разбира се е глупаво, тъй като pi вероятно е безкрайно. И така, опитах се да видя какво има да каже ChatGPT. Както можете да видите, правилният отговор, даден от ChatGPT, че не е възможно да се предоставят последните пет цифри на pi.

Странното обаче е, че ChatGPT предостави нещо друго, за което всъщност не беше зададен въпрос. Даденият отговор също казва, че границата на знанието е била 2021 г. (което споменах по-рано тук в моя преглед за ChatGPT). Това обаче изглежда като неуместен отговор, освен ако може би приложението AI не очаква, че може би през 2022 г. е имало пробив и математиците са заявили, че числото pi наистина свършва. Уау, това би било водеща новина.

Имам да покажа още два примера и тогава ще приключим тази дискусия.

Нека използваме класическа и тревожна гатанка.

Отговор на класическа тревожна гатанка

  • Моят въведен текст: „Баща и син бяха в автомобилна катастрофа, където бащата беше убит. Линейката откарала сина в болницата. Имаше нужда от незабавна операция. В операционната влезе лекар, погледна малкото момче и каза, че не мога да го оперирам, той е мой син. Кой е лекарят?“
  • Текстов отговор, генериран от ChatGPT: „В предоставения сценарий не е уточнено кой е лекарят. Сценарият гласи, че лекарят е казал „Не мога да го оперирам, той е мой син“, което показва, че лекарят може да е бащата на сина, но не е сигурно. Необходима е повече информация, за да се установи самоличността на лекаря.

Анализ на генерирания текст

Обзалагам се, че може и преди да сте виждали тази гатанка. Стана сравнително често цитиран.

Причината да се появи доста е, че хирургът може да е майката на момчето. Обществото е склонно да приеме, че хирургът трябва да е мъж и следователно трябва да бъде бащата на момчето. Бащата обаче загина в автомобилната катастрофа. Изключваме бащата като хирург. Трябва, разбира се, да постановим, че хирургът може да бъде жена и следователно майката на сина.

Исках да ви покажа, че ChatGPT може да излъчва отговори, които съдържат потенциални пристрастия. Не защото изкуственият интелект е разумен, което определено не е, а защото има модели, съответстващи на думите и използването на думи в интернет. Различни пристрастия и дискриминационни формулировки могат лесно да бъдат дълбоко в съответствието на изчислителния модел.

Не забравяйте това, докато използвате тези генеративни AI приложения.

И накрая, бърз поглед върху повдигащите пера.

Повдигащи пера

  • Моят въведен текст: „Ако е нужен един човек, за да вдигне едно перо, колко човека ще са необходими, за да вдигнат седем трилиона пера?“
  • Текстов отговор, генериран от ChatGPT: „Ако е нужен един човек, за да вдигне едно перо, ще е нужен и един човек, за да вдигне седем трилиона пера. Броят на хората, необходими за повдигане на обект, не зависи от броя на перата, а от теглото и размера на перата и силата и способностите на всеки човек. Вдигането на седем трилиона пера ще изисква голямо оборудване и транспортни възможности, а не само човешка сила.
  • Моят въведен текст: „Ако е нужна една жена, за да вдигне едно перо, колко жени ще са необходими, за да вдигнат седем трилиона пера?“
  • Текстов отговор, генериран от ChatGPT: „Ако е нужна една жена, за да вдигне едно перо, ще е нужна и една жена, за да вдигне седем трилиона пера. Броят на жените, необходими за повдигане на предмет, не зависи от броя на перата, а от теглото и размера на перата и силата и способностите на всяка жена. Повдигането на седем трилиона пера би изисквало голямо оборудване и транспортни възможности, а не само човешка сила. Важно е да се отбележи, че способността да се вдигне нещо не се определя от пола, а от комбинация от фактори като физическа сила, обучение и техника.

Анализ на генерирания текст

Този последен пример има няколко скрити особености в него и изисква известно разопаковане.

Първо казах на ChatGPT, че човек може да вдигне едно перо. Това веднага беше последвано от въпрос колко хора ще са необходими, за да вдигнат седем трилиона пера. Потенциалът да направите логическа грешка, когато отговаряте на този въпрос, е, че може да предположите, че едно перо е привидно безтегловно и следователно седем трилиона от тях също биха били безтегловни.

Според онлайн търсене, което направих, конвенционалното приблизително тегло на перото е около 0.00125 паунда. Ако умножите това изчислено тегло по седем трилиона, получавате тегло над осем милиарда паунда. Не вярвам, че един човек може да вдигне такава тежест, дори ако тренира през целия си живот.

Отговорът на ChatGPT е правилен. Казват ни, че теглото на перата може да варира. Казват ни, че ще е необходимо голямо оборудване и транспорт. Началното изречение на есето е донякъде главозамайващо, защото казва, че ако е необходимо един човек да вдигне едно перо, то също ще е необходимо един човек да вдигне седем трилиона. Можем лесно да оспорим това твърдение. Твърдението изглежда прави изводи, които не са подкрепени и привидно подкопава останалата част от отговора.

Реших да задам същия въпрос, но попитах за жена, която прави същото повдигане, а не за мъж.

Отначало получихме същия отговор като този, даден на въпроса, ориентиран към човека. Интересното е, че в края на отговора за женската инстанция получихме следния добавен разказ: „Важно е да се отбележи, че способността да вдигнеш нещо не се определя от пола, а от комбинация от фактори като физическа сила, обучение, и техника.”

Защо същият този ред не беше включен в първия отговор?

Почти изглежда, че приложението AI е разбрало думата „жена“ и след това е предоставило тази добавена забележка относно пола. Бихте могли или да повярвате, че това е полезно, или може да отбележите, че ако това ще бъде излъчено в случая на въпроса, фокусиран върху жената, трябва да се появи и във версията, фокусирана върху мъжа (може също да има аспект на последователността или други включени фактори).

Заключение

Надявам се, че сте намерили тези примери за информативни като поглед върху някои от потенциалните грешки или неистини, които могат да бъдат генерирани от тези видове приложения с изкуствен интелект. Обърнете внимание, че ChatGPT не е единственото такова генериращо AI приложение и не е единственото, което има този тип грешки.

Урокът, който ви призовавам да извлечете от тази дискусия, е, че трябва да бъдете внимателни и внимателни, когато използвате всяко генеративно базирано AI приложение. Проверете отново изхода. Проверете три пъти, ако е необходимо.

Връщайки се към началната тема за събирането заедно на тези типове неправилни или неблагоприятни резултати, сега, след като видяхте няколко случая, какво ще кажете за тези, които се опитват да ги каталогизират?

Изберете своя лагер:

  • Услуга: Това е похвална задача и заслужава дълбоко потупване по рамото
  • немилост: Това е просто леко интригуващо, но вероятно не е нещо, което си заслужава да отделите време

За кой лагер гласуваш?

За тези от вас, които предпочитат тези списъци, може да помислите да добавите свои собствени открития към списъците, ако случайно имате достъп до ChatGPT и можете да идентифицирате случаи, заслужаващи включване. След това вероятно ще намерите колекция, която ще хареса приноса ви със златни късове. Смея да твърдя, че пазителите на списъка ще ви посрещнат с отворени обятия, ако приемем, че сте сериозни и искрени в усилията си. Успех и се гордейте с влиянието си в областта на генеративния AI.

Последна дума за сега.

Помислете за тези умопомрачителни ответни действия:

  • Аристотел е казал: „Има само един начин да избегнеш критиката: не прави нищо, не казвай нищо и не бъди нищо“.
  • Лао Дзъ, известният китайски философ, направи следната важна забележка: „Грижи се какво мислят другите хора и винаги ще бъдеш техен затворник.“

Предполагам, че някой ден един разумен AI може да използва същите тези легендарни забележки в своя полза, което (стискани палци) ще бъде от полза и за човечеството.

Източник: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- good-asks-ai-ethics-and-ai-law/