Етиката на изкуствения интелект и задаващия се крах, когато законът на Ню Йорк, изискващ одити за пристрастия към изкуствения интелект, влезе в сила

Понякога най-добрите намерения за съжаление са попарени от сериозната липса на внимание към детайлите.

Основен пример за тази мъдра мъдрост е достоен за изследване.

По-конкретно, нека разгледаме отблизо нов закон в Ню Йорк относно изкуствения интелект (AI), който ще влезе в сила на 1 януари 2023 г. Лесно бихте могли да спечелите значителен залог, че ще възникнат всякакви обърквания, ужас и проблеми след като законът влезе в сила. Въпреки че проблемите не са по замисъл, те несъмнено ще се появят в резултат на лош дизайн или поне на недостатъчно уточняване на необходимите подробности, които трябва и биха могли лесно да бъдат измислени и изрично заявени.

Имам предвид местен закон, приет миналата година на 11 декември 2021 г. в почитания град Ню Йорк, който е планиран да влезе в сила в началото на 2023 г. В момента сме само на няколко месеца от грандиозното пробуждане, което този нов закон ще раздвижи. Иска ми се да мога да кажа, че амбициозният закон безпроблемно ще направи това, което трябва да направи, а именно да се справи с потенциалните пристрастия на ИИ в областта на вземането на решения за работа. Уви, въпреки че намерението е похвално, ще ви преведа през зейналите вратички, пропуски и липса на конкретност, които ще подкопаят този закон и ще подлудят работодателите, докато се опитват да се справят с непредвидените, но доста неблагоприятни последици от него.

Може да кажете, че това е класическият въпрос за прокарване напред с половинчат план. Почитана максима, приписвана на Дуайт Айзенхауер, беше, че планът е нищо, докато планирането е всичко. Накратко, този конкретен закон ще предостави ярък пример за това как законодателите понякога могат да се провалят, като не обмислят предварително необходимите подробности, така че законът да изпълни своите похвални цели и да може да бъде приет със сигурност разумни и разумни начини.

Очаква се провал.

Вече се редят оправдания.

Някои експерти казаха, че никога не можете напълно да определите закон и трябва да го видите в действие, за да знаете кои аспекти на закона трябва да бъдат променени (обща истина, която в този случай е изкривена непропорционално). Освен това те разгорещено твърдят, че това е по-специално случаят, когато става въпрос за появяващата се новост на законите, свързани с ИИ. По дяволите, увещават те, AI е високотехнологична магьосница, за която ние като законодатели не знаем много, следователно логиката е, че да имаш нещо в правните страници е по-добре, отколкото да нямаш нищо там.

На повърхността това определено звучи убедително. Копайте по-дълбоко обаче и ще осъзнаете, че е потенциално смешно, включително и особено в случая с този конкретен закон. Този закон може лесно да бъде формулиран по-ловко и разумно. Не се нуждаем от магически отвари. Не е нужно да чакаме, докато възникнат хаос. По времето, когато е бил съставен законът, е можело да се установят правилните формулировки и подробности.

Нека също така да се уверим, че неприличната, плъзнала идея, че аспектите на осиновяването не могат да бъдат предсказани предварително, е болезнено абсурдна. Това е законно размахване на ръце от най-безсмисления вид. Има много вече известни съображения относно справянето с пристрастията на ИИ и провеждането на одити на ИИ, които биха могли лесно да бъдат включени в този закон. Същото може да се каже за всяка друга юрисдикция, която възнамерява да установи такъв закон. Не се заблуждавайте да вярвате, че трябва да прибягваме само до сляпо хвърляне на легална стрела в дивите ветрове и страдание. Доста юридическо мислене, съчетано с подходящо разбиране на ИИ, вече е осъществимо и няма нужда да се хващате само за сламки.

Мога да добавя, че все още има време да се коригира това. Часовникът все още тиктака. Може да е възможно да се събудите, преди алармата да започне да звъни. Необходимите съвети могат да бъдат извлечени и оповестени. Времето е малко, така че това трябва да бъде приоритетно.

Във всеки случай, моля, уверете се, че схващате акцента тук.

Позволете ми пламенно да изясня, че подобен закон относно пристрастията към ИИ има заслуги. Веднага ще обясня защо. Ще опиша също какви проблеми има с този нов закон, който мнозина биха казали, че е първият, който някога е бил включен в правните книги (съществуват и други варианти, може би не съвсем като този).

Всъщност можете да очаквате, че подобни закони ще започнат постепенно да съществуват в цялата страна. Едно забележително безпокойство е, че ако този опит за първи път в Ню Йорк се окаже зле, това може да накара останалата част от страната да бъде предпазлива при приемането на такива закони. Това не е правилният урок, който трябва да се научи. Правилният урок е, че ако ще пишете такъв закон, направете го разумно и с нужното внимание.

Законите, хвърлени в книгите без подходяща проверка, могат да бъдат доста разстройващи и да създадат всякакви трудности надолу по веригата. В този смисъл на нещата, моля, не изхвърляйте бебето заедно с водата за баня (стара поговорка, която вероятно трябва да бъде оттеглена). Същността е, че такива закони могат да бъдат наистина продуктивни и защитни, когато са правилно съставени.

Този конкретен, за съжаление, няма да го направи извън портата.

Всички видове панически насоки непременно ще дойдат от органите, изпълняващи и прилагащи закона. Отбележете в календарите си края на януари и февруари на 2023 г., за да наблюдавате как настъпва битката. Соченето с пръсти ще бъде изключително интензивно.

Никой не е особено крякащ в момента, защото законът все още не е стъпил на главите на работодателите, които ще бъдат объркани от новия закон. Представете си, че това е метафорично казано нещо като земетресение, което трябва да се случи през първите седмици на 2023 г. Малцина се подготвят за земетресението. Мнозина дори не знаят, че земетресението вече е вписано в календара. Като се има предвид всичко това, след като земетресението се случи, много много учудени и шокирани фирми ще се чудят какво се е случило и защо е трябвало да се случи бъркотията.

Всичко това има значително значение за етиката на ИИ и предлага удобен прозорец към научените уроци (дори преди всички уроци да се случат), когато става въпрос за опит за законодателно въвеждане на ИИ. За моето текущо и обширно отразяване на етиката на ИИ, Етичният ИИ, заедно със Закона за ИИ сред правните аспекти на управлението на ИИ могат да бъдат намерени на връзката тук намлява връзката тук, само за да назовем само няколко.

Тази правна история за горкото е свързана с някогашните възникващи опасения относно днешния AI и особено използването на машинно обучение (ML) и дълбоко обучение (DL) като форма на технология и как се използва. Виждате ли, има употреби на ML/DL, които са склонни да включват AI да бъде антропоморфизиран от широката общественост, вярвайки или избирайки да приеме, че ML/DL е или чувствителен AI, или близо до (не е). В допълнение, ML/DL може да съдържа аспекти на съпоставяне на изчислителни модели, които са нежелателни или напълно неправилни, или незаконни от етична или правна гледна точка.

Може да е полезно първо да изясня какво имам предвид, когато говоря за AI като цяло, и също така да дам кратък преглед на машинното обучение и дълбокото обучение. Съществува голямо объркване по отношение на това какво означава изкуствен интелект. Бих искал също така да ви представя предписанията на етиката на ИИ, които ще бъдат особено неразделна част от останалата част от този дискурс.

Посочване на записа за AI

Нека се уверим, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен.

Ние нямаме това.

Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем съзнателен ИИ, нито дали съзнателният ИИ ще възникне по някакъв чудотворен начин спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана Сингулярността, вижте моето отразяване на връзката тук).

Осъзнайте, че днешният изкуствен интелект не е в състояние да „мисли“ по никакъв начин, равен на човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че те са изчислителни и им липсва човешко познание. Най-новата ера на AI широко използва машинно обучение и задълбочено обучение, които използват съвпадение на изчислителни модели. Това доведе до AI системи, които изглеждат като човешки склонности. Междувременно днес няма изкуствен интелект, който да има подобие на здрав разум, нито когнитивното чудо на здравото човешко мислене.

Част от проблема е нашата тенденция да антропоморфизираме компютрите и особено ИИ. Когато изглежда, че компютърна система или AI действа по начини, които свързваме с човешкото поведение, има почти непреодолимо желание да се припишат човешки качества на системата. Това е често срещан умствен капан, който може да хване дори най-непреклонния скептик относно шансовете за достигане на разум.

До известна степен това е причината етиката на ИИ и етичният ИИ да е толкова важна тема.

Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на мислене относно етиката на ИИ и правенето на това неразделна част от разработването и прилагането на ИИ е от жизненоважно значение за създаването на подходящ ИИ, включително оценката на начина, по който етиката на ИИ се приема от фирмите.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни социални предимства. Вижте например моето отразяване на връзката тук.

В предишни колони разгледах различните национални и международни усилия за изработване и приемане на закони, регулиращи ИИ, вж. връзката тук, например. Освен това разгледах различните принципи и насоки за етиката на ИИ, които различни нации са идентифицирали и приели, включително например усилията на ООН, като набора от етика на ИИ на ЮНЕСКО, който почти 200 страни приеха, вж. връзката тук.

Ето един полезен ключов списък с етични критерии или характеристики на ИИ по отношение на системите с ИИ, които преди това проучих отблизо:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ. Всички заинтересовани страни през целия жизнен цикъл на AI на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния AI. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, подлежат на спазване на понятията за етика на AI. Както беше подчертано тук, необходимо е едно село, за да създаде и внедри AI, и за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Нека да запазим нещата на земята и да се съсредоточим върху днешния изчислителен несъзнателен ИИ.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

Вярвам, че вече съм подготвил сцената за достатъчно обсъждане на ролята на ИИ в рубриката тихо отказване.

AI, който се използва при вземане на решения за заетост

Законът на Ню Йорк се фокусира върху темата за вземане на решения за заетост.

Ако напоследък сте се опитвали да кандидатствате за модерна работа почти навсякъде по света, вероятно сте се сблъскали с елемент, базиран на AI, в процеса на вземане на решение за работа. Разбира се, може да не знаете, че е там, тъй като може да е скрит зад кулисите и няма да имате готов начин да разпознаете, че е включена AI система.

Често срещана фраза, използвана за обозначаване на тези AI системи, е, че те се вземат под внимание Автоматизирани инструменти за вземане на решение за наемане на работа, съкратено като AEDT.

Нека да видим как законът на Ню Йорк дефинира тези инструменти или приложения, които включват вземане на решения за работа:

  • „Терминът „инструмент за автоматизирано вземане на решение за наемане на работа“ означава всеки изчислителен процес, получен от машинно обучение, статистическо моделиране, анализ на данни или изкуствен интелект, който извежда опростен резултат, включително оценка, класификация или препоръка, който се използва за значително подпомагане или замени дискреционното вземане на решения за вземане на решения за наемане на работа, които засягат физически лица. Терминът „инструмент за автоматизирано вземане на решение за наемане на работа“ не включва инструмент, който не автоматизира, поддържа, значително подпомага или замества дискреционните процеси за вземане на решения и който не оказва съществено влияние върху физическите лица, включително, но не само, филтър за нежелана поща, защитна стена, антивирусен софтуер, калкулатор, електронна таблица, база данни, набор от данни или друга компилация от данни“ (NYC, Int 1894-2020, подглава 25, раздел 20-870).

Ще разгледам накратко тази формулировка, тъй като е жизненоважна за цялостното естество и обхват на закона.

Първо, както съм заявявал много пъти в моите писания, едно от най-трудните препятствия при писането на закони за ИИ се състои в опитите да се дефинира адекватно какво означава ИИ. Няма единствен, общоприет юридически брониран стандарт, на който всички са се приземили. Съществуват всякакви определения. Някои са полезни, други не. Вижте моите анализи на връзката тук.

Може да се изкушите да си помислите, че няма особено значение как можем да дефинираме AI. Съжалявам, но ще грешите за това.

Въпросът е, че ако дефиницията на AI е неясно уточнена в даден закон, това позволява на онези, които разработват AI, да се опитат да заобиколят закона, като привидно твърдят, че техният софтуер или система не са вдъхновени от AI. Те биха спорили с голяма смелост, че законът не се прилага за техния софтуер. По същия начин някой, който използва софтуера, може също да твърди, че законът не се отнася за него, тъй като софтуерът или системата, които използват, попадат извън определението за ИИ, посочено в закона.

Хората са трудни като такива.

Един от най-хитрите начини да избегнете премазване от закон, който не харесвате, е да твърдите, че законът не се отнася за вас. В този случай ще се опитате да разделите определението на AEDT на части. Вашата цел, ако приемем, че не искате законът да е на гърба ви, би била да оспорите законно, че дефиницията, дадена в закона, е неподходяща за това, което представлява или прави вашата компютърна система, свързана с работата.

Закон от този вид може да бъде както подпомогнат, така и понякога подкопан чрез нарочно включване на изключващи разпоредби в определението.

Погледнете отново определението за AEDT, както е посочено в този закон. Надяваме се, че сте забелязали, че има изключваща клауза, която гласи „...не включва инструмент, който не автоматизира, поддържа, значително подпомага или замества дискреционните процеси на вземане на решения и който не оказва съществено влияние върху физически лица...“.

От една страна, основата за включване на такова изключване е определено полезна.

Изглежда предполага (според моето мнение на лаик), че AEDT трябва да осигури конкретна цел и да се използва по същество. Ако AEDT е, да кажем, бегъл или периферен и ако решението за наемане на работа все още е по-скоро човешко дело, може би използваната софтуерна система не трябва да се тълкува като AEDT. Освен това, ако софтуерът или системата не оказват „материално“ въздействие върху физическите лица (хора), тогава не изглежда полезно да държите краката си в огъня, така да се каже.

Разумно, не искате законът да надценява обхвата си и да поглъща всичко, включително кухненската мивка. По същество това е несправедливо и обременително за онези, които законът не е предназначен да обхване. Те могат да бъдат хванати в тресавище, което действа като една от онези мрежи за риба. Предполага се, че нашите закони трябва да бъдат внимателни, за да не вкарват невинните в обхвата на закона.

Всичко е наред.

Разумният адвокат е длъжен да осъзнае, че клаузата за изключване може да бъде вид законна карта за излизане от затвора (като настрана, този конкретен закон предвижда граждански санкции, а не наказателни санкции, така че излизане от затвора забележката е просто метафорична и за ароматна пикантност). Ако някой твърди, че дадена компания използва AEDT при обработката на заетостта, един от първите начини да се опита да се преодолее това твърдение би бил да се твърди, че така нареченият AEDT всъщност е в сферата на изключването. Може да се опитате да покажете, че така нареченият AEDT не го прави автоматизирам решението за наемане на работа или не подкрепа решението за наемане на работа или не съдействат съществено or замени дискреционни процеси на вземане на решения.

След това можете да тръгнете по криволичещия път на идентифициране какво означават думите „автоматизиране“, „подкрепа“, „съществена помощ“ или „замяна“ в този контекст. Това е доста удобна легална заешка дупка. Може да се направи убедителен аргумент, че софтуерът или системата, за които се твърди, че са AEDT, са част от изключващите показания. Следователно, без вреда, без нарушение по отношение на този конкретен закон.

Очевидно е, че трябва да се консултирате с лицензирани адвокати по такива въпроси (тук не е посочено никакво подобие на правен съвет и това е изцяло гледна точка на лаиците).

Моето мнение тук е, че ще има място за мърдане в този нов закон. Стаята за размахване ще позволи на някои работодатели, които наистина използват AEDT, вероятно да намерят вратичка, за да заобиколят използването на AEDT. Другата страна на монетата е, че може да има фирми, които не използват истински AEDT, които ще бъдат впримчени от този закон. Може да се направи твърдение, че каквото и да са използвали, наистина е AEDT и те ще трябва да намерят начин да покажат, че техният софтуер или системи попадат извън AEDT и в разпоредбата за изключване.

Можем да направим тази смела прогноза:

  • Несъмнено ще има работодатели, които съзнателно използват AEDT, които потенциално ще се опитат да се измъкнат от законовите си отговорности.
  • Неизбежно ще има работодатели, които не използват AEDT, затънали в твърдения, че използват AEDT, което ги принуждава да положат „допълнителни“ усилия, за да покажат, че не използват AEDT.

Ще разясня допълнително тези многобройни пермутации и комбинации, когато продължим напред в тази дискусия. Имаме още много да стъпим.

Използването на AEDT само по себе си не е част от този проблем, която поражда демонстративни опасения, а начинът, по който AEDT извършва действията си, предизвиква правния гняв. Същността е, че ако AEDT също така въвежда пристрастия, свързани с вземането на решения за заетост, тогава вие сте в потенциално гореща вода (е, нещо като).

Как да разберем дали AEDT всъщност въвежда пристрастия, натоварени с изкуствен интелект, в усилията за вземане на решения за работа?

Отговорът според този закон е, че трябва да се извърши одит на AI.

Преди и често съм разглеждал естеството на одитите на AI и какво представляват те, заедно с отбелязването на съществуващи недостатъци и недобре дефинирани аспекти, като напр. връзката тук намлява връзката тук, сред много други подобни публикации. Просто казано, идеята е, че точно както бихте могли да извършите финансов одит на фирма или технологичен одит, свързан с компютърна система, можете да извършите одит на AI система. Използвайки специализирани техники, инструменти и методи за одит, вие изследвате и оценявате от какво се състои една AI система, включително например опитвайки се да установите дали съдържа отклонения от един или друг вид.

Това е процъфтяваща област на внимание.

Можете да очаквате това подполе на одита, което е посветено на одита на ИИ, да продължи да расте. Очевидно е, че тъй като ще имаме все повече и повече AI системи, които ще бъдат пуснати на пазара, и на свой ред ще има все повече и повече искания за одити на AI. Новите закони ще помогнат за разпалването на това. Дори и без тези закони ще има много одити на ИИ, тъй като хората и компаниите твърдят, че са били онеправдани от ИИ и ще се стремят да осигурят осезаема документирана индикация, че вредата е налице и е свързана с използвания ИИ.

AI одиторите ще бъдат горещи и ще бъдат много търсени.

Това може да бъде вълнуваща работа. Един може би вълнуващ елемент включва потапянето в най-новото и най-доброто от ИИ. AI продължава да напредва. Когато това се случи, един проницателен одитор на ИИ ще трябва да остане нащрек. Ако сте одитор, който се е уморил да прави ежедневни конвенционални одити, отварящата очите винаги нова арена за одитиране на ИИ предлага обещание (казвам това, за да издигна частично ръста на одиторите, тъй като те често са необявените герои, работещи в окопите и са склонни да бъдат пренебрегвани заради начинанията си).

Освен това, аз съм бил сертифициран одитор на компютърни системи (едно такова обозначение е CISA) и съм правил одити на ИТ (информационни технологии) много пъти в продължение на много години, включително одити на AI. През повечето време не получавате заслуженото признание за подобни усилия. Сигурно се досещате защо. Като цяло одиторите са склонни да намират неща, които са грешни или счупени. В този смисъл те са доста полезни, въпреки че това може да се възприеме от някои като лоша новина, а пратеникът на лоши новини обикновено не се поставя особено на пиедестал.

Обратно към разглеждания въпрос.

Що се отнася до закона на Ню Йорк, ето какво казва законът относно одита на ИИ и стремежа да се разкрият пристрастия към ИИ:

  • „Терминът „одит на пристрастия“ означава безпристрастна оценка от независим одитор. Такъв одит на пристрастия включва, но не се ограничава до тестване на автоматизиран инструмент за вземане на решение за наемане на работа, за да се оцени различното въздействие на инструмента върху лица от която и да е категория компонент 1, която се изисква да бъде докладвана от работодателите съгласно подраздел (c) на раздел 2000e-8 от заглавие 42 от кодекса на Съединените щати, както е посочено в част 1602.7 от дял 29 от кодекса на федералните разпоредби“ (NYC, Int 1894-2020, подглава 25, раздел 20-870).

Като обобщение, ето докъде сме стигнали досега с разопаковането на този закон:

  • Законът обхваща автоматизираните инструменти за вземане на решения за наемане на работа (AEDT)
  • Включено е определение за сортиране, за да се определи какво е AEDT
  • Дефиницията на AEDT също споменава изключващи разпоредби
  • Същността е, че законът иска да разкрие пристрастията на AI в AEDT
  • За да разберете дали са налице отклонения от AI, трябва да се направи одит на AI
  • Предполага се, че одитът на AI ще разкрие всички пристрастия на AI

След това можем да се поразровим малко повече в закона.

Ето от какво се състои решението за наемане на работа:

  • „Терминът „решение за наемане на работа“ означава проверка на кандидати за работа или служители за повишение в рамките на града“ (NYC, Int 1894-2020, подглава 25, раздел 20-870).

Обърнете внимание, че ограничаващият аспект на „града“ предполага, че въпросът се занимава само с обстоятелства, свързани със заетостта в Ню Йорк. Също така си струва да се отбележи, че решението за наемане на работа, както е дефинирано, включва проверка на кандидатите, което е обичайната конотация на това, което смятаме за решение за наемане на работа, плюс това включва и повишения.

Това е двоен удар в смисъл, че фирмите ще трябва да осъзнаят, че трябва да са наясно с това как техният AEDT (ако използват такъв) се използва за първоначални настройки за заетост, а също и при повишаване във фирмата. Вероятно можете да се досетите или да приемете, че много фирми няма да са напълно наясно, че промоционалният елемент също е в тази рубрика. Те неизбежно ще пренебрегнат тази допълнителна конструкция на свой собствен риск.

След това ще предоставя допълнителен ключов откъс от закона, за да осветля същността на това, което се тълкува като незаконно от този закон:

  • „Изисквания за автоматизирани инструменти за вземане на решения за работа. а. В града е незаконно за работодател или агенция по заетостта да използва автоматизиран инструмент за вземане на решение за наемане на работа, за да провери кандидат или служител за решение за наемане на работа, освен ако: 1. Такъв инструмент е бил обект на одит на пристрастия, проведен не повече от една година преди използването на такъв инструмент; и 2. Резюме на резултатите от последния одит на пристрастност на такъв инструмент, както и датата на разпространение на инструмента, за който се отнася този одит, са били публично достъпни на уебсайта на работодателя или агенцията по заетостта преди използването на такъв инструмент…” (NYC, Int 1894-2020, подглава 25, раздел 20-871). Има допълнителни подклаузи, които може да искате да разгледате, ако се интересувате силно от правната формулировка.

Скептиците и критиците твърдят, че това изглежда малко хладно по отношение на незаконната дейност, която се нарича.

Те казват, че законът се фокусира само тясно и минимално върху провеждане на одит на AI и разгласява резултатите, а не върху това дали одитът на AI е открил пристрастия на AI и какви са последиците, ако това е имало при вземането на решения за наемане на работа, които попадат в обхвата на този закон. По същество очевидно е неправомерно да се не изберете да проведете такъв одит на ИИ (когато е приложимо, както беше обсъдено по-рано), освен това също е незаконно в случая, ако извършите одита на ИИ, но не публикувайте го.

Законът изглежда мълчи по въпроса дали отклоненията на AI са открити и присъстват или не. По същия начин, мълчание за това дали пристрастията на AI са повлияли на някого, свързан с важна дейност по вземане на решения за заетост. Ключът е привидно просто „просто“ да извършите AI одит и да разкажете за него.

Този закон не стига ли достатъчно далеч?

Част от контрааргумента за твърдението, че това е привидно задоволително по отношение на обхвата или обхвата на това, което този закон обхваща, е, че ако одитът на ИИ наистина установи пристрастия на ИИ и ако тези пристрастия на ИИ са свързани с конкретни случаи на вземане на решения за работа, лицето или така увредените лица ще могат да преследват работодателя по друг закони. Следователно не е необходимо този аспект да се включва в този конкретен закон.

Предполага се, че този закон има за цел да извади на светло такива неща.

След като светлината на деня бъде хвърлена върху тези неблагоприятни практики, могат да бъдат преследвани всякакви други правни пътища, ако съществуват пристрастия към ИИ и са въздействащи на хората. Без този закон, аргументът гласи, че използващите AEDTs биха го правили, като същевременно вероятно ще се развихрят и имат потенциално много пристрастия към AI, за които тези, които търсят работа, или онези, които търсят повишения, няма да знаят, че се случват.

Изкарайте ги на повърхността. Накарайте ги да разкажат. Влез под капака. Вижте какво има вътре в този двигател. Това е мантрата в този случай. От това изплуване и разказване могат да се предприемат допълнителни действия.

Освен търсенето на правни действия в резултат на изясняване, че одит на AI може би е докладвал, че са налице пристрастия на AI, съществува и убеждението, че публикуването на тези резултати ще доведе до последици за репутацията. Работодателите, за които се демонстрира, че използват AEDT, които имат пристрастия към AI, вероятно ще понесат обществения гняв, като например чрез социални медии и други подобни. Те ще бъдат разкрити за своите нечестия и ще бъдат засрамени да коригират поведението си, а също така може да се окажат лишени от хора, търсещи работа там поради опасенията, че пристрастията към AI пречат на наемането или узурпират повишенията.

Посочените санкции, свързани с това, че са незаконни, са следните:

  • „Наказания. а. Всяко лице, което наруши която и да е разпоредба на тази подглава или което и да е правило, обнародвано в съответствие с тази подглава, носи отговорност за гражданска санкция от не повече от $500 за първо нарушение и всяко допълнително нарушение, настъпило в същия ден като първото нарушение, и не по-малко от $500 и не повече от $1,500 за всяко следващо нарушение” (NYC, Int 1894-2020, подглава 25, раздел 20-872). Има допълнителни подклаузи, които може да искате да разгледате, ако се интересувате силно от правната формулировка.

Скептиците и критиците твърдят, че наказанията не са достатъчно сурови. Предполага се, че една голяма фирма би се присмивала или смеела на включените нищожни глоби в долари. Други посочват, че глобата може да се окаже повече от това, което се вижда на пръв поглед, така че ако една фирма има хиляда долара нарушения всеки ден (само един сценарий, има много други сценарии), стойността за една година ще бъде около $365,000 XNUMX, ако приемем, че фирмата просто е пренебрегнала закона за цяла година и се е измъкнала от това (изглежда трудно да си представим, но може да се случи и дори може да се случи по-дълго или за по-висока кулминация на ежедневните глоби, на теория).

Междувременно някои се тревожат за по-малките предприятия и свързаните с тях глоби. Ако малък бизнес, който едва свързва двата края, бъде ударен от глобите и се предполага, че го е направил не поради умишлена мотивация да заобиколи закона, глобите могат съществено да засегнат техния колеблив бизнес.

Въпросните проблемни съображения на Keystone

Имам прост и ясен въпрос към вас.

В контекста на този закон, какво точно представлява одит на ИИ?

Проблемно е, че няма окончателна индикация в текста на закона. Всичко, което изглежда ни се казва, е, че „одитът на пристрастия“ трябва да се извърши чрез „безпристрастна оценка от независим одитор“ (съгласно формулировката на закона).

Можете да карате камион Mac през тази зейнала дупка.

Ето защо.

Помислете за този доста смущаващ пример. Измамник се свързва с фирма в Ню Йорк и обяснява, че те предоставят услуга, така че да направят така наречения „одит на пристрастия“ на своя AEDT. Те обещават, че ще го направят „безпристрастно“ (каквото и да означава това). Те се представят за независим одитор и са се помазали като такъв. Няма нужда от какъвто и да е вид счетоводно или одиторско обучение, степени, сертификати или нещо подобно. Може би си правят труда да отпечатат няколко визитни картички или набързо да пуснат уебсайт, рекламиращ репутацията си на независим одитор.

Те ще таксуват на фирмата скромна такса от около $100. Тяхната услуга се състои може би в задаване на няколко въпроса относно AEDT и след това обявяване, че AEDT е безпристрастен. След това те изпращат доклад с размер на една страница и декларират „резултатите“ от така наречения одит. Фирмата прилежно публикува това на уебсайта си.

Фирмата спазвала ли е този закон?

Ти ми кажи.

Изглежда, че имат.

Може веднага да се изненадате, че одитът е извършен бегло (това е учтиво и щедро в този конкретен сценарий). Може да се смущавате, че откриването на пристрастия (или липсата на такова) вероятно е по същество предварително определено (воала, изглежда, че нямате пристрастия). Може да се разстроите, че публикуваните резултати могат да дадат аура на преминаване на строг одит от добросъвестен опитен, обучен, опитен, сертифициран одитор.

Да, това прави нещата по-големи.

Един работодател може да изпита облекчение, че е изпълнил това „глупаво“ изискване и адски щастлив, че му струва само мижавите 100 долара. Работодателят може вътрешно и тихо да осъзнае, че независимият одит е шарада, но това изглежда не е на техните плещи да решат. Беше им представен твърдян независим одитор, одиторът свърши работата, която одиторът каза, че е съвместима, фирмата плати за това, получиха резултатите и публикуваха резултатите.

Някои работодатели ще направят това и ще осъзнаят, че спазват закона. Независимо от това, те ще вярват, че са напълно съвместими.

Други работодатели може да бъдат измамени. Всичко, което знаят, е необходимостта да спазват закона. За тяхно щастие (или поне така предполагат), „независим одитор“ се свързва с тях и обещава, че одитът на жалбата и резултатът могат да бъдат получени срещу 100 долара. За да избегнат тази дневна глоба от $500 или повече, фирмата смята, че им е даден подарък от небесата. Те плащат $100, „одитът“ се извършва, те получават безплатна здравна справка за липсата на пристрастия към AI, публикуват резултатите и забравят за това до следващия път, когато трябва да направят друг такъв одит .

Как всяка фирма в Ню Йорк, която е обект на този закон, трябва да знае какво е добросъвестно спазване на закона?

В случай, че все още не сте свили стомаха си, можем да влошим нещата. Надявам се, че не сте яли през последните няколко часа, тъй като следващият обрат ще бъде трудно да се запази непокътнат.

Готови ли сте?

Този фиктивен доставчик на услуги се оказва по-голям измамник, отколкото може би сте предполагали. Те карат фирмата да се регистрира за услугата от $100, за да извърши безпристрастен одит като независим одитор. Ето, ето, те правят „одита“ и откриват, че има пристрастия във всяко кътче и ъгъл на AEDT.

Те имат пристрастия към ИИ като нашествие от хлебарки.

Да, казва фирмата, какво можем да направим по въпроса?

Няма проблем, каза им се, ние можем да коригираме тези отклонения на AI вместо вас. Ще ви струва само $50 за всяко такова отклонение, което е открито. Добре, фирмата казва, моля, поправете ги, благодаря, че го направихте. Доставчикът на услугата прави малко кодиране и казва на фирмата, че са коригирали сто отклонения от AI и следователно ще им таксуват $5,000 (това са $50 за отклонение от AI, което трябва да се коригира, умножено по 100 открити).

Ох, фирмата се чувства притисната, но все пак е по-добре, отколкото да се сблъскват с нарушението от $500 или повече на ден, така че те плащат на „независимия одитор“ и след това получават нов доклад, показващ, че вече са безпристрастни. Те публикуват това с гордост на уебсайта си.

Едва ли знаят, че това е било глупост, измама, измама.

Може да настоявате този доставчик на услуги да бъде наказан за тяхната измама. Хващането и спирането на тези измамници ще бъде много по-трудно, отколкото можете да си представите. Точно както преследването на базираните в чужбина принцове, които имат богатство за вас, вероятно е в някаква чужда земя извън обсега на законодателството на Съединените щати, същото може да се случи и в този случай.

Очаквайте да се появи домашна индустрия поради този нов закон.

Ще има добросъвестни одитори, които се стремят да предоставят тези услуги. Добре за тях. Ще има одитори, които ще следят тази работа. Ще има фалшиво обявени одитори, които ще тръгнат след тази работа.

Споменах, че сценарият на доставчика на услуги включва искане на $100 за извършване на така наречения AI одит. Това беше просто измислен контейнер. Може би някои ще таксуват $10 (изглежда схематично). Може би около 50 долара (все още е оскъдно). и т.н.

Да предположим, че доставчик на услуги казва, че работата ще струва 10,000 XNUMX долара.

Или $100,000 XNUMX, за да го направите.

Вероятно $1,000,000 XNUMX XNUMX за това.

Някои работодатели няма да имат никаква представа колко може или трябва да струва това. Маркетингът на тези услуги ще бъде безплатен за всички. Това е закон за правене на пари за онези, които законно извършват тези услуги, и за правене на пари за тези, които също са подмолни да го правят. Ще бъде трудно да разберете кое е кое.

Също така ще ви помоля да съзерцавате друга зейнала дупка.

В контекста на този закон, какво точно представлява пристрастие към AI?

Освен споменаването на кодекса на федералните разпоредби на Съединените щати (това не дава особен отговор на въпроса за пристрастията на ИИ и следователно не служи като спирачка или решение по въпроса), ще ви бъде трудно да твърдите, че тази нова законът дава някаква съществена индикация за това какво представляват пристрастията към ИИ. Още веднъж, това ще бъде напълно отворено за много различни интерпретации и няма да знаете особено какво е търсено, какво е намерено и т.н. Освен това работата, извършена дори от добросъвестни одитори на ИИ, почти вероятно ще бъде несравнима с друга, така че всеки ще има склонност да използва собствените си дефиниции и подходи.

Накратко, можем да наблюдаваме с трепет и загриженост за това, което работодателите ще срещнат в резултат на този глупаво формулиран, макар и добронамерен закон:

  • Някои работодатели ще знаят за закона и сериозно и напълно ще го спазват, доколкото могат
  • Някои работодатели ще знаят за закона и незначително ще се съобразят с най-тънкия, най-евтиния и вероятно неприятен път, който могат да намерят или който стига до прага им
  • Някои работодатели ще знаят за закона и ще вярват, че не са в обхвата на закона, така че няма да направят нищо по въпроса (въпреки че се оказва, че те може да са в обхвата)
  • Някои работодатели ще знаят за закона и категорично ще решат да го игнорират, може би вярвайки, че никой няма да забележи или че законът няма да бъде приложен, или ще се окаже, че законът е неприложим и т.н.
  • Някои работодатели няма да знаят за закона и ще бъдат хванати с плоски крака, борейки се да го спазват
  • Някои работодатели няма да знаят за закона и нещастно ще бъдат изгонени от измамници
  • Някои работодатели няма да знаят за закона, те не са в обхвата му, но все пак биват преследвани от измамници, които ги убеждават, че са в обхвата
  • Някои работодатели няма да знаят за закона и няма да направят нищо по въпроса, докато като по чудо никога няма да бъдат хванати или наказани за техния пропуск
  • Други

Едно важно съображение, което трябва да имате предвид, е величината или мащабът, свързан с този нов закон.

Според различни докладвани статистически данни относно броя на фирмите в Ню Йорк, броят обикновено се посочва като някъде около 200,000 XNUMX предприятия (нека използваме това като порядък). Ако приемем, че това е разумно приближение, вероятно тези фирми като работодатели са обект на този нов закон. Затова вземете гореспоменатите няколко начина, по които работодателите ще реагират на този закон и помислете колко ще бъдат във всяка от различните кофи, които току-що споменах.

Това е доста зашеметяващ проблем с мащабирането.

Освен това, според докладваната статистика, има може би 4 милиона работни места в частния сектор в Ню Йорк плюс около 300,000 XNUMX държавни служители, наети от правителството на Ню Йорк (отново, използвайте ги като порядък, а не точен брой). Ако вземете предвид, че новите наемания изглежда са в обхвата на този нов закон, заедно с повишенията, свързани с всички тези настоящи и бъдещи работници, броят на служителите, които по един или друг начин ще бъдат засегнати от този закон, е откровено изумителен .

Голямата ябълка има нов закон, който на пръв поглед изглежда безвреден и привидно незначителен или обикновен, но когато осъзнаете включените фактори за мащабиране, може да ви замае главата

Заключение

Споменах в началото на тази дискусия, че това е един добронамерен нов закон.

Всичко, което току-що описах като потенциални вратички, пропуски, пропуски, проблеми и други подобни, може лесно да се предвиди. Това не е ракетна наука. Бих могъл да добавя, че има още по-присъщи опасения и объркващи аспекти на този закон, които поради ограниченията на пространството тук не съм посочил.

Можете да ги намерите толкова лесно, колкото можете да застреляте риба в буре.

Закони от този вид трябва да бъдат внимателно изготвени, за да се опитат да предотвратят този вид подли краища. Предполагам, че сериозните композитори са се стремили да напишат закон, който според тях е сравнително железен и може би в най-лошия случай ще има някои мънички капки тук или там. За съжаление това е пожарен маркуч от капки. Ще са необходими много тиксо.

Възможно ли е законът да бъде написан по по-изяснен начин, за да затвори тези доста очевидни вратички и свързаните с тях проблеми?

Да, в изобилие.

Сега, като е така, можете възмутено да увещавате, че такъв закон несъмнено ще бъде много по-дълъг. Винаги има компромис между закон, който продължава и продължава, ставайки тромав, срещу това да бъде кратък и компактен. Вие обаче не искате да спечелите краткост при загуба на това, което би било съществена и достойна яснота и конкретност. Краткият закон, който позволява шенагии, е пълен с проблеми. По-дълъг закон, дори и да изглежда по-сложен, обикновено би бил достоен компромис, ако избягва, предотвратява или поне минимизира проблемите надолу по веригата по време на етапа на приемане.

Свети Августин каза известното: „Струва ми се, че един несправедлив закон изобщо не е закон“.

Можем да предоставим следствие, че един справедлив закон, който е съставен от проблематичен език, е закон, който моли да създаде сурови проблеми. В този случай изглежда оставаме с мъдрите думи на великия юрист Оливър Уендъл Холмс младши, а именно, че една страница от историята струва половин килограм логика.

Гледайте, тъй като историята скоро ще бъде създадена.

Източник: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kicks-into-gear/