Ето защо бизнесите имат бурни отношения на любов и омраза с бордовете по етика на ИИ

Трябва ли бизнесът да създаде консултативен съвет по етика на изкуствения интелект?

Може да се изненадате да разберете, че това не е лесен отговор с да или не.

Преди да навляза в сложността на плюсовете и минусите на създаването на консултативен съвет по етиката на изкуствения интелект, нека се уверим, че всички сме на една и съща страница относно това от какво се състои консултативният съвет по етиката на изкуствения интелект и защо се издигна до ниво на заглавие известност.

Както всички знаят, изкуственият интелект (AI) и практическото използване на AI за бизнес дейности преминаха през покрива като задължителни за съвременните компании. Би било трудно да спорите противното. До известна степен вливането на AI направи продуктите и услугите по-добри, плюс понякога доведе до по-ниски разходи, свързани с предоставянето на споменатите продукти и услуги. Изящен списък от ефективност и повишаване на ефективността може потенциално да се припише на разумното и подходящо приложение на AI. Накратко, добавянето или разширяването на това, което правите чрез включване на AI, може да бъде доста изгодно предложение.

Има и да кажем голямо пръскане това идва с добавянето на AI във вашите корпоративни начинания.

Бизнесът е шумен и горд с използването на AI. Ако случайно изкуственият интелект също подобри стоките ви, това е страхотно. Междувременно твърденията за използване на AI достатъчно привличат вниманието, че можете почти да правите същите неща, които сте правили преди, но същевременно да спечелите много повече пари или очи, като размахвате знамето на AI като част от вашата бизнес стратегия и извън- стоки на вратата.

Тази последна точка за понякога малко измислици относно това дали AI наистина се използва ни кара да навлизаме в арената на етиката на AI. Има всякакви откровени неверни твърдения, които се правят от бизнеса за ИИ. Още по-лошото може би се състои в използването на AI, който се оказва т.нар AI за лошо.

Например, несъмнено сте чели за многото случаи на AI системи, използващи машинно обучение (ML) или задълбочено обучение (DL), които имат вкоренени расови пристрастия, полови пристрастия и други неоправдани неправилни дискриминационни практики. За моето текущо и обширно отразяване на тези въпроси, свързани с неблагоприятния ИИ и появата на шумни призиви за Етика на ИИ и Етичен ИИ, вж. връзката тук намлява връзката тук, Само за да назовем няколко.

И така, имаме тези кисели драйвери, скрити в привидно розовото използване на ИИ от бизнеса:

  • Празни твърдения за използване на AI, когато всъщност няма AI или незначително вливане на AI
  • Неверни твърдения относно използването на AI, които са умишлено създадени да подвеждат
  • Непреднамерено включване на AI, което се оказва, че внася неправилни пристрастия и е дискриминационно
  • Целенасочено оформен AI за разпространяване на лоши пристрастия и презрени дискриминационни действия
  • Други

Как възникват тези необмислени или позорни практики в компаниите?

Едно забележително парче от пъзела е липсата на осъзнаване на етиката на изкуствения интелект.

Висшите ръководители може да не са наясно със самата идея за създаване на AI, който се съобразява с набор от етични правила за AI. Разработчиците на AI в такава фирма може да са запознати с въпроса, въпреки че може би са запознати само с теориите за етиката на AI и не знаят как да преодолеят празнината в ежедневните усилия за разработване на AI. Съществува и обстоятелството, че разработчиците на изкуствен интелект искат да възприемат етиката на изкуствения интелект, но след това получават силен отпор, когато мениджърите и ръководителите вярват, че това ще забави техните проекти за изкуствен интелект и ще увеличи разходите за разработване на изкуствен интелект.

Много висши ръководители не осъзнават, че липсата на придържане към етиката на ИИ вероятно ще срита тях и компанията в задната им част след пускането на ИИ, който е пълен с трънливи и напълно грозни проблеми. Една фирма може да бъде хваната с лош изкуствен интелект в себе си, който след това плачевно подкопава иначе дългогодишната изградена репутация на фирмата (репутационен риск). Клиентите могат да изберат повече да не използват продуктите и услугите на компанията (риск от загуба на клиент). Конкурентите могат да се възползват от този провал (конкурентен риск). И има много адвокати, готови да помогнат на тези, които са били престъпени, с цел да заведат тежки съдебни дела срещу фирми, които са допуснали гнилия ИИ в техните фирмени стоки (правен риск).

Накратко, ROI (възвръщаемост на инвестицията) за подходящо използване на AI Ethics е почти сигурно по-полезно, отколкото в сравнение с разходите надолу по веригата, свързани със седенето върху вонята на лош AI, който не е трябвало да бъде измислен или пуснат.

Оказва се, че не всеки е получил тази бележка, така да се каже.

AI Ethics едва постепенно набира сила.

Някои смятат, че неизбежно може да е необходима дългата ръка на закона, за да вдъхнови допълнително възприемането на етични подходи на ИИ.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме отличителни закони, които да управляват различните разработки и употреби на ИИ. Нови закони наистина се обединяват на международно, федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да бъде създаден ИИ. Усилието да се изготвят и приемат такива закони е премерено. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Всъщност те предупреждават, че ако приемем някои от тези закони за ИИ, ще убием златната гъска, като ограничим напредъка в ИИ, който предлага огромни предимства за обществото. Вижте например моето отразяване на връзката тук намлява връзката тук.

Нека се уверим, че всички сме на една и съща страница относно това какво съдържат основите на етиката на ИИ.

В моето отразяване на колоната преди това съм обсъждал различни колективни анализи на принципите на етиката на ИИ, като тази оценка на връзката тук, който предлага полезен ключов списък с етични AI критерии или характеристики по отношение на AI системи:

  • Прозрачност
  • Справедливост и справедливост
  • Не-зловредност
  • отговорност
  • Поверителност
  • Благодеяние
  • Свобода и автономия
  • Доверие
  • Устойчивост
  • достойнство
  • Солидарност

Тези принципи на етиката на ИИ сериозно трябва да се използват от разработчиците на ИИ, заедно с тези, които управляват усилията за разработка на ИИ, и дори тези, които в крайна сметка прилагат и извършват поддръжка на системи с ИИ.

Всички заинтересовани страни през целия жизнен цикъл на ИИ на разработване и използване се разглеждат в обхвата на спазването на установените норми на етичния ИИ. Това е важен акцент, тъй като обичайното предположение е, че „само програмистите“ или тези, които програмират AI, са обект на спазване на понятията за етика на AI. Нужно е едно село, за да създаде и въведе AI, за което цялото село трябва да бъде запознато и да спазва етичните правила на AI.

Средство за опит за въвеждане и поддържане на постоянно внимание по отношение на използването на правилата за етика на ИИ може да бъде частично предприето чрез създаване на консултативен съвет по етика на ИИ.

След това ще разопаковаме аспектите на консултативния съвет по етика на изкуствения интелект.

Бордове по етика на изкуствения интелект и как да ги направите правилно

Компаниите могат да бъдат на различни етапи от приемането на AI и по същия начин на различни етапи от възприемането на етиката на AI.

Представете си компания, която иска да започне приемането на AI Ethics, но не е сигурна как да го направи. Друг сценарий може да бъде фирма, която вече се е занимавала с AI Ethics, но изглежда не е сигурна какво трябва да се направи в подкрепа на усилията. Трети сценарий може да бъде фирма, която активно разработва и използва AI и вътрешно е направила много за въплъщение на етиката на AI, въпреки че осъзнават, че има шанс да пропуснат други прозрения, може би поради вътрешно групово мислене.

За всеки от тези сценарии създаването на консултативен съвет по етика на изкуствения интелект може да бъде разумно.

Идеята е доста ясна (добре, за да изясним, цялостната идея е пословичният връх на айсберга и дяволът със сигурност е в детайлите, както ще разгледаме моментално).

Консултативният съвет по етиката на ИИ обикновено се състои предимно от външни съветници, които са помолени да служат в специален консултативен съвет или комитет за фирмата. Може да има и някои вътрешни участници, включени в борда, въпреки че обикновено идеята е да се съберат съветници извън фирмата и това може да донесе полунезависима гледна точка към това, което прави компанията.

Казвам полунезависим, тъй като несъмнено ще има някои потенциални конфликти относно независимостта, които могат да възникнат с избраните членове на консултативния съвет по етика на ИИ. Ако фирмата плаща на съветниците, това повдига очевидния въпрос дали платените членове се чувстват зависими от фирмата за заплата или че може да се притесняват да критикуват подарения кон, който имат в ръка. От друга страна, фирмите са свикнали да използват външни платени съветници за всякакви разглеждани независими мнения, така че това е донякъде обичайно и очаквано така или иначе.

Консултативният съвет по етиката на изкуствения интелект обикновено се събира периодично, лично или виртуално отдалечено. Те се използват като звукова дъска от фирмата. Шансовете също са, че на членовете се предоставят различни вътрешни документи, доклади и бележки относно усилията, свързани с ИИ във фирмата. Конкретни членове на консултантския съвет по етиката на изкуствения интелект може да бъдат помолени да присъстват на вътрешни срещи според специфичния им опит. и т.н.

Освен че може да види какво се случва с AI във фирмата и да осигури свежи очи, консултативният съвет по етиката на AI обикновено има двойна роля на доставчик отвън навътре на най-новото в AI и етичния AI. Вътрешните ресурси може да нямат време да се впуснат в това, което се случва извън фирмата и следователно могат да получат силно фокусирани и персонализирани най-съвременни гледни точки от членовете на консултативния съвет по етиката на изкуствения интелект.

Съществуват и вътрешни и външни употреби на консултативен съвет по етика на изкуствения интелект.

Това може да е трудно.

Концепцията е, че консултативният съвет по етиката на изкуствения интелект се използва, за да уведоми външния свят какво прави фирмата, когато става въпрос за изкуствения интелект и етиката на изкуствения интелект. Това може да бъде полезно като средство за укрепване на репутацията на фирмата. Вдъхновените от AI продукти и услуги може да се възприемат като по-надеждни поради златния печат на одобрение от консултативния съвет по етика на AI. В допълнение, призивите към фирмата да направи повече за етичния AI могат да бъдат донякъде притъпени, като се посочи, че консултативен съвет по етиката на AI вече се използва от компанията.

Въпросите, които обикновено се задават на консултативен съвет по етика на ИИ от фирмата, използваща такъв механизъм, често включват:

  • Трябва ли фирмата да използва AI за конкретен продукт или услуга или това изглежда прекалено обезпокоително?
  • Фирмата взема ли предвид пълния набор от съображения за етика на ИИ в своите усилия за ИИ?
  • Дали фирмата е изпаднала в групово мислене и не желае ли или не може да види потенциално обезпокоителни падения на етиката на ИИ в очакване на тези усилия?
  • Какви най-нови подходи към етиката на изкуствения интелект фирмата трябва да се стреми да възприеме?
  • Би ли било възможно да предложим външно признание за нашите усилия по етиката на ИИ и ангажимента към тях?
  • Други

Включването в консултативен съвет по етиката на изкуствения интелект със сигурност има смисъл и фирмите все повече вървят по този път.

Моля, имайте предвид, че има и друга страна на тази монета.

От едната страна на монетата консултативните съвети по етиката на изкуствения интелект могат да бъдат следващото най-добро нещо след нарязания хляб. Не пренебрегвайте другата страна на монетата, а именно те също могат да бъдат монументално главоболие и може да съжалявате, че сте се отклонили в тази опасна територия (както ще видите в тази дискусия, недостатъците могат да бъдат управлявани, ако знаете какво правят).

Компаниите започват да осъзнават, че могат да се окажат в малко затруднение, когато изберат да тръгнат по пътя на консултативния съвет по етиката на изкуствения интелект. Може да се твърди, че тази машинация донякъде прилича на игра с огъня. Виждате ли, огънят е много мощен елемент, който можете да използвате, за да готвите ястия, да ви защитава от хищници, докато сте в пустинята, да ви топли, да излъчва светлина и да предоставя множество полезни и жизненоважни предимства.

Огънят също може да ви изгори, ако не сте в състояние да се справите добре с него.

Има различни новинарски заглавия от скорошно значение, които ясно демонстрират потенциалните опасности от наличието на консултативен съвет по етика на ИИ. Ако член накратко реши, че вече не вярва, че фирмата извършва правилните етични дейности на ИИ, недоволният член може да напусне силно възмутен. Ако приемем, че човекът вероятно е добре известен в сферата на изкуствения интелект или индустрията като цяло, неговият скачащ кораб е длъжен да привлече широко медийно внимание.

След това фирмата трябва да се защити.

Защо членът напусна?

Какво нечестиво е намислила компанията?

Някои фирми изискват членовете на консултативния съвет по етиката на изкуствения интелект да подпишат NDA (споразумения за неразкриване на информация), които изглежда ще защитят фирмата, ако членът реши да стане „измамник“ и да разбие компанията. Проблемът обаче е, че дори ако човекът запази относително мълчание, все пак има вероятно потвърждение, че той вече не служи в консултативния съвет по етика на изкуствения интелект. Това само по себе си ще повдигне всякакви въпроси, повдигащи вежди.

Освен това, дори ако съществува NDA, понякога членът ще се опита да заобиколи разпоредбите. Това може да включва позоваване на неназовани общи „случаи“, за да се подчертаят аномалиите на етиката на изкуствения интелект, които според тях фирмата е изпълнявала коварно.

Падналият член може да бъде напълно нагъл и да излезе директно, като назове своите опасения относно компанията. Дали това е явно нарушение на NDA е донякъде може би по-малко важно от факта, че думата се разпространява от опасения относно етичния AI. Фирма, която се опитва да съди члена за нарушаване на NDA, може брутално да налее гореща вода върху себе си, като привлече допълнително внимание към спора и изглежда като класическия дуел Давид срещу Голиат (фирмата е голямото „чудовище“).

Някои висши изпълнителни директори приемат, че могат просто да постигнат финансово споразумение с всеки член на консултативния съвет по етика на изкуствения интелект, който смята, че фирмата прави грешни неща, включително игнориране или омаловажаване на изразени опасения.

Това може да не е толкова лесно, колкото се предполага.

Често членовете са искрено етично настроени и няма да се откажат лесно от това, което те възприемат като етична битка правилно срещу грешно. Те може също така да са финансово стабилни по друг начин и да не желаят да се откажат от етичните си принципи или да имат друга работа, която остава незасегната от напускането на консултативния съвет по етика на ИИ.

Както може да стане очевидно, някои по-късно осъзнават, че консултативният съвет по етиката на ИИ е нож с две остриета. Има огромна стойност и важно прозрение, което една такава група може да предаде. В същото време си играете с огъня. Възможно е член или членове да решат, че вече не вярват, че фирмата върши надеждна работа по етичен AI. В новините има индикации, че понякога цял консултативен съвет по етиката на ИИ се оттегля заедно, всички наведнъж, или има известно превес на членовете, които обявяват, че напускат.

Бъдете готови за доброто и проблемите, които могат да възникнат с консултативните съвети по етика на изкуствения интелект.

Разбира се, има моменти, когато компаниите всъщност не правят правилните неща, когато става въпрос за етиката на ИИ.

Затова се надяваме и очакваме, че консултативен съвет по етиката на изкуствения интелект в тази фирма ще се активизира, за да оповести това, вероятно първо вътрешно във фирмата. Ако фирмата продължи по възприемания лош път, членовете със сигурност ще изглеждат етично обвързани (вероятно и законно) да предприемат други действия, които смятат за подходящи (членовете трябва да се консултират с личния си адвокат за всеки такъв правен съвет). Възможно е това да е единственият начин да накарате компанията да промени поведението си. Едно драстично действие от страна на член или набор от членове може да изглежда като последното средство, което членовете се надяват да обърне прилива. В допълнение, тези членове вероятно не искат да бъдат част от нещо, за което горещо вярват, че се е отклонило от AI Ethics.

Полезен начин за разглеждане на тези възможности е следният:

  • Фирмата се отклонява, членът избира да напусне поради предполагаема липса на твърдо съответствие
  • Фирмата не се отклонява, но членът вярва, че фирмата е и следователно напуска поради предполагаема липса на съответствие

Външният свят не е задължително да знае дали членът, който напуска, има добросъвестно основание за загриженост относно фирмата или това може да е някакво идиосинкратично или погрешно впечатление от страна на члена. Съществува и доста простата възможност член да напусне групата поради други ангажименти или по лични причини, които нямат нищо общо с дейността на фирмата.

Същността е, че за всяка фирма, която приема консултативен съвет по етика на ИИ, е важно внимателно да обмисли целия набор от фази на жизнения цикъл, свързани с групата.

С цялото това говорене за проблемни аспекти, не искам да създавам впечатлението, че нямам консултативен съвет по етика на ИИ. Това не е посланието. Истинската същност е да имате консултативен съвет по етиката на изкуствения интелект и да сте сигурни, че го правите по правилния начин. Превърнете това във вашата заветна мантра.

Ето някои от често споменаваните предимства на консултативен съвет по етика на изкуствения интелект:

  • Имайте под ръка средство за отхвърляне на AI проекти и идеи от полунезависима частна група
  • Възползвайте се от експертен опит в AI Ethics, който е извън фирмата
  • Стремете се да избегнете недоволството на AI Ethics и откровените бедствия от фирмата
  • Бъдете стимулатор на връзките с обществеността за фирмата и нейните AI системи
  • Пробив на вътрешното групово мислене относно AI и етиката на AI
  • Погледнете свеж поглед върху иновациите на AI и тяхната практичност
  • Подобрете репутацията и авторитета на фирмата
  • Служете като необуздан глас, когато усилията на фирмата AI са слаби
  • Други

Ето често срещаните начини, по които фирмите объркват и подкопават своя консултативен съвет по етика на изкуствения интелект (не правете това!):

  • Осигурете неясни и объркващи насоки относно мисията и целта
  • Само пестеливо консултиран и често ненавременен, след като конят вече е излязъл от обора
  • Съхраняван на тъмно
  • Fed силно филтрирана информация, която предоставя подвеждащо изображение на нещата
  • Използва се единствено като витрина и за никаква друга цел за създаване на стойност
  • Не е позволено да се прави каквото и да е подобие на проучване относно вътрешни въпроси
  • Лишени от достатъчно ресурси, за да изпълняват работата си в достатъчна степен
  • Липса на изрично лидерство в групата
  • Липса на внимание от страна на ръководството на фирмата по отношение на групата
  • Очаква се да дава сляпо одобрение на всичко, което се представя
  • Случайност по отношение на избраните членове
  • Третира се с малко уважение и изглежда просто като отметка
  • Други

Друг често объркващ проблем включва природата и поведението на различните членове, които работят в консултативен съвет по етика на ИИ, което понякога може да бъде проблематично по следните начини:

  • Някои членове може да са само концептуализатори на AI Ethics, вместо да са запознати с AI Ethics като практика и като такива предоставят минималистични бизнес прозрения
  • Някои могат да бъдат бомбастични, когато става въпрос за етиката на изкуствения интелект и са изключително трудни за справяне с тях през цялото им участие
  • Вътрешните борби могат да се превърнат в значителен разсейващ фактор, често сблъсък на голямо его и да накарат групата да се превърне в дисфункционална
  • Някои може да са прекалено заети и прекалено ангажирани, така че да са настрана от консултантските усилия по етиката на ИИ
  • Някои имат дълбоко непоколебимо мнение относно етиката на ИИ, което е негъвкаво и нереалистично
  • Някои са склонни към емоционални, а не към аналитични и системни съображения в основата на етиката на ИИ
  • Може да прилича на известната поговорка да бъдеш като стадо котки, които не искат да се съсредоточат и се скитат безцелно
  • Други

Някои фирми изглежда просто събират консултативен съвет по етиката на изкуствения интелект на волю-неволю основа. Не се мисли за членовете, които да бъдат избрани. Не се мисли за това какво всеки носи на масата. Не се мисли за честотата на срещите и как трябва да се провеждат срещите. Като цяло не се мисли за управление на консултативния съвет по етика на изкуствения интелект. и т.н.

В известен смисъл, поради собствената си липса на находчивост, вие вероятно ще задвижите влакова катастрофа.

Не прави това.

Може би този списък на правилните неща за правене сега е привидно очевидно за вас въз основа на досегашния дискурс, но може би ще бъдете шокирани да знаете, че малко фирми изглежда разбират това правилно:

  • Изрично посочете мисията и целта на консултативния съвет по етика на изкуствения интелект
  • Уверете се, че на групата ще бъде отделено подходящо внимание от най-високо ниво
  • Определете типа членове, които биха били най-подходящи за групата
  • Свържете се с желаните членове и установете дали отговарят на групата
  • Направете подходящи договорености с избраните членове
  • Установете логистиката на срещите, честотата и т.н.
  • Определете задълженията на членовете, обхвата и дълбочината
  • Предвидете вътрешните ресурси, необходими за подпомагане на групата
  • Отделете достатъчно ресурси за самата група
  • Поддържайте консултативния съвет по етиката на изкуствения интелект активен и включен
  • Имайте предварително планирани ескалации, когато възникнат притеснения
  • Посочете как ще се третират спешни или кризисни ситуации
  • Завъртете членовете навън или навътре, ако е необходимо, за да поддържате сместа подходяща
  • Предварително са предвидени изходни пътища за членовете
  • Други

Заключение

Преди няколко години много от производителите на автомобили и самоуправляващите се технологични фирми, които се впускат в разработването на базирани на AI самоуправляващи се автомобили, внезапно бяха подтикнати да предприемат действия за приемане на консултативни съвети по етиката на AI. До този момент изглеждаше, че нямаше особена представа за съществуването на такава група. Предполагаше се, че вътрешният фокус върху етичния AI ще бъде достатъчен.

Обсъдих надълго и нашироко в моята колона различните злополучни пропуски или пропуски в етиката на изкуствения интелект, които понякога са довели до проблеми със самоуправляващите се автомобили, като леки автомобилни злополуки, явни сблъсъци с коли и други бедствия, вижте моето отразяване на връзката тук. Значението на безопасността на AI и подобни защити трябва да бъде най-важното съображение за тези, които правят автономни превозни средства. Консултативните съвети по етиката на изкуствения интелект в тази ниша помагат безопасността на изкуствения интелект да остане жизненоважен основен приоритет.

Любимият ми начин да изразя този вид откровение относно етиката на ИИ е да оприлича материята на земетресения.

Калифорнийците са обект на земетресения от време на време, понякога доста силни. Може би си мислите, че да бъдете подготвени за земетресение ще бъде винаги необходимо съображение. Не така. Цикълът работи по този начин. Случва се значително земетресение и на хората се напомня, че са подготвени за земетресение. За кратко време се бърза да се предприемат такива приготовления. След известно време вниманието към това намалява. Подготовката остава встрани или се пренебрегва по друг начин. Бум, ново земетресение удари и всички, които трябваше да са подготвени, бяха хванати „неподозирани“, сякаш не бяха разбрали, че някой ден може да се случи земетресение.

Фирмите често правят донякъде същото по отношение на консултативните съвети по етиката на изкуствения интелект.

Те не започват такъв и след това внезапно, при някаква катастрофа в техния AI, те реактивно биват подтикнати към действие. Те крехко създават консултативен съвет по етика на изкуствения интелект. Има много от проблемите, които цитирах по-рано тук. Консултативният съвет по етиката на изкуствения интелект се разпада. Ами сега, нова AI катастрофа във фирмата събужда нуждата от консултативен съвет по етиката на AI.

Измийте, изплакнете и повторете.

Бизнесът определено установява, че понякога има връзка между любов и омраза с усилията на консултативния съвет по етиката на изкуствения интелект. Когато става въпрос да правим нещата по правилния начин, любовта витае във въздуха. Когато става въпрос да правите нещата по грешен начин, омразата извира яростно. Уверете се, че правите необходимото, за да поддържате любовта и да предотвратите омразата, когато става въпрос за създаване и поддържане на консултативен съвет по етика на ИИ.

Нека превърнем това във връзка любов-любов.

Източник: https://www.forbes.com/sites/lanceeliot/2022/08/08/heres-why-businesses-are-having-a-tumultuous-love-hate-relationship-with-ai-ethics-boards/