Ето как OpenAI планира да прочисти ChatGPT от невярна информация

OpenAI обяви на 31 май своите усилия за подобряване на способностите на ChatGPT за решаване на математически проблеми, с цел намаляване на случаите на халюцинации на изкуствен интелект (AI). OpenAI наблегна на смекчаването на халюцинациите като решаваща стъпка към разработването на подравнен AGI.

През март въвеждането на най-новата версия на ChatGPT, GPT-4, допълнително насочи изкуствения интелект към масовия поток. Генеративните AI чатботове обаче отдавна се борят с фактическата точност, като понякога генерират невярна информация, обикновено наричана „халюцинации“. Усилията за намаляване на тези AI халюцинации бяха обявени чрез публикация на техния уебсайт.

AI халюцинациите се отнасят до случаи, в които системите с изкуствен интелект генерират резултати, които са фактически неверни, подвеждащи или неподкрепени от данни от реалния свят. Тези халюцинации могат да се проявяват в различни форми, като например генериране на невярна информация, измисляне на несъществуващи събития или хора или предоставяне на неточни подробности за определени теми.

OpenAI проведе проучване, за да проучи ефективността на два вида обратна връзка – „надзор на резултатите“ и „надзор на процеса“. Надзорът на резултата включва обратна връзка въз основа на крайния резултат, докато надзорът на процеса осигурява принос за всяка стъпка от веригата на мисли. OpenAI оцени тези модели с помощта на математически задачи, генерирайки множество решения и избирайки най-високо класираното решение според всеки модел на обратна връзка.

След задълбочен анализ изследователският екип откри, че надзорът на процеса дава превъзходно представяне, тъй като насърчава модела да се придържа към одобрен от човека процес. За разлика от това, надзорът на резултатите се оказа по-труден за последователно разглеждане.

OpenAI признава, че последиците от надзора на процесите се простират отвъд математиката и е необходимо по-нататъшно изследване, за да се разберат неговите ефекти в различни области. Той изрази възможността, че ако наблюдаваните резултати са верни в по-широк контекст, супервизията на процеса може да предложи благоприятна комбинация от изпълнение и привеждане в съответствие в сравнение с супервизията на резултатите. За да улесни изследванията, компанията публикува публично пълния набор от данни за надзор на процесите, приканвайки проучване и проучване в тази област.

Свързани: Търсенето на AI за кратко катапултира Nvidia в клуб от $1T

Въпреки че OpenAI не предостави изрични случаи, които подтикнаха тяхното разследване на халюцинации, две скорошни събития илюстрираха проблема в сценарии от реалния живот.

При скорошен инцидент адвокатът Стивън А. Шварц по делото Mata срещу Avianca Airlines призна, че разчита на чатбота като изследователски ресурс. Въпреки това, информацията, предоставена от ChatGPT, се оказа напълно измислена, подчертавайки проблема.

ChatGPT на OpenAI не е единственият пример за системи с изкуствен интелект, срещащи халюцинации. AI на Microsoft, по време на демонстрация на технологията си за чатбот през март, провери отчетите за приходите и генерира неточни цифри за компании като Gap и Lululemon.

Magazine: 25 XNUMX търговци залагат на акциите на ChatGPT, изкуственият интелект е гаден при хвърлянето на зарове и много други

Източник: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information