3 причини вашата организация да има нужда от външни оценители на алгоритми

От Satta Sarmah-Hightower

Бизнес лидерите изстискват цялата стойност, която могат, от изкуствения интелект (AI). Проучване на KPMG от 2021 г. установява по-голямата част от бизнес лидерите в правителството, промишленото производство, финансовите услуги, търговията на дребно, науката за живота и здравеопазването казват, че AI е поне умерено функционален в техните организации. Проучването също така установява, че половината от анкетираните казват, че тяхната организация е ускорила приемането на AI в отговор на пандемията Covid-19. В организациите, където AI е възприет, поне половината казват, че технологията е надхвърлила очакванията.

Алгоритмите на AI са все по-отговорни за различни днешни взаимодействия и иновации – от персонализирани препоръки за продукта намлява обслужване на клиенти опит на банките решения за кредитиране и дори реакция на полицията.

Но въпреки всички предимства, които предлагат, AI алгоритмите идват с големи рискове, ако не бъдат ефективно наблюдавани и оценени за устойчивост, справедливост, обяснимост и почтеност. За да помогне на бизнес лидерите да наблюдават и оценяват AI, проучването, посочено по-горе, показва, че a нарастващ брой бизнес лидери искат правителството да регулира ИИ, за да позволи на организациите да инвестират в правилната технология и бизнес процеси. За необходимата подкрепа и надзор е разумно да обмислите външни оценки, предлагани от доставчик на услуги с опит в предоставянето на такива услуги. Ето три причини защо.

1. Алгоритмите са „черни кутии“

AI алгоритмите – които се учат от данни за решаване на проблеми и оптимизиране на задачи – правят системите по-интелигентни, позволявайки им да събират и генерират прозрения много по-бързо, отколкото хората някога биха могли.

Някои заинтересовани страни обаче смятат тези алгоритми за „черни кутии“, обяснява Дрю Розен, управляващ директор на одита в KPMG, водеща фирма за професионални услуги. По-конкретно, някои заинтересовани страни може да не разберат как алгоритъмът е стигнал до определено решение и следователно може да не са уверени в справедливостта или точността на това решение.

„Резултатите, събрани от алгоритъма, могат да бъдат склонни към пристрастия и погрешно тълкуване на резултатите“, казва Росен. „Това също може да доведе до някои рискове за предприятието, тъй като те използват тези резултати и ги споделят с обществеността и техните заинтересовани страни.“

Алгоритъм, който използва грешни данни, например, е неефективен в най-добрия случай и вреден в най-лошия. Как може да изглежда това на практика? Помислете за базиран на изкуствен интелект чатбот, който предоставя грешна информация за акаунта на потребителите, или инструмент за автоматизиран езиков превод, който превежда неточно текст. И двата случая могат да доведат до сериозни грешки или погрешни тълкувания за държавни органи или компании, както и за съставните части и клиентите, които разчитат на решенията, взети от тези алгоритми.

Друг принос към проблема с черната кутия е, когато присъщите пристрастия се просмукват в разработването на AI модели, потенциално причинявайки пристрастно вземане на решения. Кредиторите, например, все повече използват AI, за да прогнозират кредитоспособността на потенциалните кредитополучатели, за да вземат решения за отпускане на заеми. Въпреки това може да възникне риск, когато ключови входни данни в AI, като кредитен рейтинг на потенциален кредитополучател, има съществена грешка, което води до отказа на заеми на тези лица.

Това подчертава необходимостта от външен оценител, който може да служи като безпристрастен оценител и да предостави фокусирана оценка, базирана на приети критерии, на уместността и надеждността на историческите данни и предположенията, които захранват алгоритъма.

2. Заинтересованите страни и регулаторите изискват прозрачност

През 2022 г. не е имало текущи изисквания за докладване за отговорен AI. Росен обаче казва, „точно както управляващите органи въведоха ESG [екологични, социални и управленски] регулации за отчет за определени ESG показатели, само въпрос на време е да видим допълнителни изисквания за докладване на регулациите за отговорния ИИ.“

Всъщност в сила от 1 януари 2023 г. в Ню Йорк Местен закон 144 изисква да бъде извършен одит на пристрастия на автоматизиран инструмент за вземане на решение за наемане на работа, преди да бъде използван.

И на федерално ниво, Закон за националната инициатива за изкуствен интелект от 2020 г- което се основава на a Изпълнителна заповед от 2019 г— фокусира се върху техническите стандарти и насоки за ИИ. Освен това, Закон за алгоритмичната отчетност биха могли да изискват оценки на въздействието на автоматизирани системи за вземане на решения и разширени процеси за вземане на критични решения. И в чужбина, Закон за изкуствения интелект е предложена, предлагаща всеобхватна регулаторна рамка със специфични цели относно безопасността на ИИ, съответствието, управлението и надеждността.

С тези промени организациите са под управленски микроскоп. Оценителят на алгоритъма може да предостави такива доклади, които се отнасят до регулаторните изисквания и повишават прозрачността на заинтересованите страни, като същевременно избягва риска заинтересованите страни да тълкуват погрешно или да бъдат подведени според резултатите от оценката.

3. Компаниите се възползват от дългосрочното управление на риска

Стив Камара, партньор в практиката за технологично осигуряване на KPMG, прогнозира, че инвестициите в AI ще продължат да растат, тъй като предприятията продължават с автоматизирането на процесите, разработването на иновации, които подобряват потребителското изживяване и разпределянето на AI разработката между бизнес функциите. За да останат конкурентоспособни и печеливши, организациите ще се нуждаят от ефективен контрол, който не само адресира непосредствените недостатъци на ИИ, но и намалява всички дългосрочни рискове, свързани с бизнес операциите, подхранвани от ИИ.

Това е мястото, където външните оценители се намесват като доверен и опитен ресурс. Тъй като организациите все повече възприемат почтеността на AI като средство за подпомагане на бизнеса, партньорството може да се превърне по-малко в ad hoc услуга и повече в последователно сътрудничество, обяснява Камара.

„Виждаме път напред, където ще трябва да има непрекъсната връзка между организациите, които разработват и прилагат ИИ на текуща база, и обективен външен оценител“, казва той.

Поглед към това, което следва

В бъдеще организациите могат да използват външни оценки на по-скоро циклична основа, докато разработват нови модели, поглъщат нови източници на данни, интегрират решения на доставчици на трети страни или се ориентират например в нови изисквания за съответствие.

Когато са наложени допълнителни изисквания за регулиране и съответствие, външни оценители може да са в състояние да предоставят услуги, за да оценят директно доколко организацията е внедрила или използвала AI във връзка с тези изисквания. Тогава тези оценители биха били в най-добра позиция да споделят резултатите от оценката по ясен и последователен начин.

За да се възползва от технологията, като същевременно се предпази от нейните ограничения, една организация трябва да потърси външни оценители, които да предоставят отчети, на които след това може да разчита, за да демонстрира по-голяма прозрачност при внедряването на алгоритми. Оттам както организацията, така и заинтересованите страни могат да разберат по-добре силата на AI и неговите ограничения.

Източник: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/