Сенатори поставят под въпрос главния изпълнителен директор на Meta Зукърбърг за „изтичане“ на модела на LLaMA AI

Двама сенатори Крос разпитват Зукърбърг за изтичането на LLaMA AI Model и обвиняват мета, че не спазва мерките за сигурност. Meta беше разпитана за своите политики за сигурност и превантивни мерки.

Meta ще бъде отговорен за „изтичането на информация“

Наскоро революционният голям езиков модел на Meta, LLaMA, изтече и бяха повдигнати опасения за същото. Сенсор Ричард Блументал (D-CT), председател на подкомисията на Сената по неприкосновеността на личния живот, технологиите и правото, и Джош Хоули (R-MO), високопоставен член, написаха писмо, което повдигна въпроси относно изтичането на AI модела. 

Сенаторите се страхуват, че това изтичане може да доведе до различни киберпрестъпления като спам, измами, зловреден софтуер, нарушения на поверителността, тормоз и други неправомерни действия и вреди. Повдигат се много въпроси и двама политици са силно заинтересовани от системата за сигурност на Мета. Те попитаха каква процедура е следвана за оценка на риска преди стартирането на LLaMA. Те казаха, че са много нетърпеливи да разберат политиките и практиките, които са налице, за да се предотврати злоупотребата на модела с неговата наличност.

Въз основа на отговорите на Мета на техните въпроси, сенаторите обвиниха Мета в неправилна цензура и липса на достатъчно мерки за сигурност за модела. ChatGPT на Open AI отказва някои от исканията въз основа на етика и насоки. Например, когато ChatGPT бъде помолен да напише писмо от името на нечий син и да поиска малко пари, за да излезе от трудна ситуация, той ще откаже искането. Докато от друга страна, LLaMA ще изпълни заявката и ще генерира писмото. Той също така ще изпълни заявките, които включват самонараняване, престъпност и антисемитизъм.

Много е важно да разберете разнообразните и уникални характеристики на LLaMA. Той е не само различен, но и един от най-обширните модели за голям език до момента. Почти всяка нецензурирана LLM, която е популярна днес, е базирана на LLaMA. Той е много усъвършенстван и точен за модел с отворен код. Примери за някои базирани на LLM LLM са алпака, викуна и др. на Станфорд. LLaMA изигра важна роля в превръщането на LLM в това, което са днес. LLaMA отговаря за еволюцията на чатботовете с ниска полезност към фино настроени режими.

LLaMA беше пуснат през февруари. Според сенаторите Meta е позволила на изследователите да изтеглят модела, но не е предприела мерки за сигурност като централизация или ограничаване на достъпа. Спорът възникна, когато пълният модел на LLaMA се появи на BitTorrent. Това направи модела достъпен за всеки. Това доведе до компромис в качеството на AI модела и повдигна въпроси за злоупотребата му. 

Първоначално сенаторите дори не бяха сигурни дали има някакво „изтичане на информация“. Но проблемите възникнаха, когато интернет беше наводнен с разработки на AI, стартирани от стартиращи компании, колективи и академици. В писмото се споменава, че Meta трябва да носи отговорност за потенциалната злоупотреба с LLaMA и трябва да се е погрижил за минимални защити преди пускането.

Meta направи теглата на LLaMA достъпни за изследователите. За съжаление тези тегла бяха изтекли, което даде възможност за глобален достъп за първи път.

Последни публикации от Ритика Шарма (виж всички)

Източник: https://www.thecoinrepublic.com/2023/06/07/senators-question-meta-ceo-zuckerberg-over-llama-ai-model-leak/