Microsoft подобрява сигурността на AI Chatbot, за да осуети измамниците

Microsoft Corp добави редица функции за сигурност в Azure AI Studio, които трябва с течение на времето да продължат да намаляват вероятността неговите потребители да конфигурират AI модели в режим, който би ги накарал да действат необичайно или неподходящо. Мултинационалната технологична компания, базирана в Редмънд, Вашингтон, очерта подобренията в публикация в блог, като набляга на гарантирането на целостта на взаимодействията на AI и насърчаването на доверието в потребителската база.

Бързи щитове и др 

Сред основните разработки е създаването на „бързи щитове“, технология, която е предназначена да намира и убива незабавни инжекции, докато разговаря с AI chatbots. Това са така наречените jailbreaks и са основно входове от потребители, които умишлено се формират по такъв начин, че да предизвикат нежелан отговор от AI моделите.

Например, Microsoft играе своята роля индиректно с бързи инжекции, където е възможно изпълнението на зли заповеди и подобен сценарий може да доведе до сериозни последици за сигурността като кражба на данни и отвличане на системата. Механизмите са ключови за откриване и реагиране на тези единствени по рода си заплахи в реално време, според Сара Бърд, главен продуктов директор на Microsoft за отговорен AI.

Microsoft добавя, че скоро ще има предупреждения на екрана на потребителя, които ще посочват кога има вероятност даден модел да изразява невярна или подвеждаща информация, гарантирайки повече удобство за потребителя и доверие.

Изграждане на доверие в AI инструменти 

Усилията на Microsoft са част от по-голяма инициатива, която има за цел да даде на хората доверие във все по-популярния генеративен AI, който се прилага широко в услуги, насочени към индивидуални потребители и корпоративна клиентела. Microsoft премина с тънък гребен, след като направи случаите, при които потребителите имаха възможност да играят Copilot chatbot, за да произвеждат странни или вредни резултати. Това ще бъде в подкрепа на резултат, който показва необходимостта от силни защити срещу споменатите манипулативни тактики, които вероятно ще се повишат с AI технологиите и популярните знания. Прогнозирането и след това смекчаването е при разпознаване на модели на атака, например когато нападателят повтаря въпроси или подкани при ролева игра.

Като най-големият инвеститор и стратегически партньор на OpenAI, Microsoft разширява границите на това как да включи и създаде отговорни, безопасни генеративни AI технологии. И двамата са ангажирани с отговорното внедряване и основополагащи модели на Generative AI за мерки за безопасност. Но Бърд призна, че тези големи езикови модели, дори когато започват да се разглеждат като основа за голяма част от бъдещите иновации на ИИ, не са устойчиви на манипулации.

Надграждането върху тези основи ще отнеме много повече от просто разчитане на самите модели; ще се нуждае от цялостен подход към безопасността и сигурността на ИИ.

Microsoft наскоро обяви засилване на мерките за сигурност за своето Azure AI Studio, за да покаже и гарантира проактивни стъпки, които се предприемат за защита на променящия се пейзаж на заплахите от AI.

Той се стреми да избегне злоупотреби с AI и да запази целостта и надеждността на взаимодействието с AI чрез включване на навременни екрани и предупреждения.

С постоянната еволюция на AI технологията и нейното приемане в много включвания от ежедневния живот, ще е крайно време Microsoft и останалата част от общността на AI да поддържат много бдителна позиция за сигурност.

Източник: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/