Етиката на изкуствения интелект се бори с огнения удар едно-две както на автономни оръжейни системи, базирани на изкуствен интелект, така и на експлоатацията на управлявани от изкуствен интелект автономни системи, които са дяволски въоръжени

Тези невероятни танцуващи четириноги роботи.

Сигурен съм, че сте гледали онези вирусни видеоклипове на четириногите роботизирани системи, които танцуват и скачат по привидно възхитителни и любими като кучета начини. Изглежда ни харесва да виждаме тези управлявани от изкуствен интелект роботи, докато се катерят по препятствия и изглежда, че се закрепват деликатно, когато са кацнали върху кутии или след като са били несигурно поставени върху подпийнали върхове на шкафове. Техните хора, които се грижат за тях, понякога ще ръгат или бутат лудуващите четириноги роботи, което изглежда дразнещо несправедливо и лесно може да надигне гнева ви от нахалното отношение от страна на тези хуманоиди-мозъци.

Чудя се обаче дали сте виждали не толкова вирусни видеоклипове от съвсем различен калибър.

Приготви се.

Има широко публикувани видеоклипове, показващи същия вид четириноги роботи, които са оборудвани с подчертано оръжие от един или друг вид.

Например, картечница или подобно огнестрелно оръжие е монтирано върху иначе познат танцуващ и скачащ робот. Има електронна връзка между четириногия робот и изстрелващия механизъм на оръжието. Сега въоръженото компютърно ходещо измишльотина е показано как крачи към мястото, където е била поставена мишена, а картечницата е стреляла яростно по целта. След като закова впоследствие частично унищожената мишена, четириногият робот танцува и подскача около близките препятствия и се нарежда, за да повтори същото действие отново и отново при други нови цели.

Не точно това, което бихте очаквали да видите. Това със сигурност премахва лекотата и относителната радост от откровеното гледане на тези пухкави четириноги роботи, които вършат работата си. Добре дошли в суровата реалност на привидно безвреден автономни системи, които се преобразуват или трансформират в силно въоръжени. С много усилия можете за една нощ да имате автономна система, считана за „неоръжейна“, преоборудвана, за да съдържа пълно оръжие.

При някои обстоятелства е почти лесно.

Ще обсъдя тази силно противоречива тема и ще покрия доста тежките опасения относно етиката на ИИ, които възникват. Ще предприемем пътешествие в автономни системи, AI, автономни превозни средства, оръжия и множество свързани с тях бойни проблеми с етичния AI. За моето текущо и обширно отразяване на AI Ethics и Ethical AI вижте връзката тук намлява връзката тук, Само за да назовем няколко.

Нека започнем с някои основополагащи ключови камъни.

За целите на дискусията приемете, че има два основни начина за категоризиране на автономни системи, които са били въоръжени с оръжия:

1) Автономни оръжейни системи (по дизайн)

2) Автономни системи, които са въоръжени (от постфактум)

Има важна разлика между двете категории.

В първия случай ще дефинираме an автономна оръжейна система да бъде от самото начало компютъризирано творение, което целенасочено е предназначено да бъде оръжие. Разработчиците са имали предвид, че искат да създадат оръжие. Изричното им търсене е да произведат оръжие. Те знаеха, че могат интегрално да комбинират оръжия с най-новите технологии за автономни системи. Това е оръжие, което се носи на вълната на високите технологии, което постига автономно движение и автономни действия (ще го обясня по-подробно след малко).

За разлика от това, във втория случай ще разгледаме въпроса за автономните системи, които изобщо нямат особена наклонност към оръжията. Това са автономни системи, които се разработват за други цели. Представете си автономно превозно средство, като например самоуправляваща се кола, която ще се използва за осигуряване на мобилност за всички и помощ за намаляване на хилядите годишни смъртни случаи, които възникват поради автомобили, шофирани и управлявани от хора (вижте моето задълбочено отразяване при връзката тук). Изглежда, че не се разглежда оръжие за тези оптимистични усилия за насърчаване на обществото да накарат хората да излязат зад волана и вместо това да поставят AI на шофьорската седалка.

Но тези безобидни автономни системи могат да бъдат въоръжени, ако хората искат да го направят.

Тогава наричам тази втора категория автономни системи, които са въоръжени. Автономната система е била първоначално и благочестиво изработена за предполагаемо неоръжейна цел. Въпреки това, мечтаната алтруистична надежда е преобърната от някой някъде, който получава коварната идея, че това изобретение може да бъде въоръжено. Изведнъж автономната система, която изглеждаше пухкава, се превърна в смъртоносно оръжие чрез маркиране на някаква форма на оръжейни способности (като четириногите роботи, подобни на кучета, споменати по-рано, които имат картечница или подобно огнестрелно оръжие, добавено към техните характеристики) .

За съжаление, двете категории завършват донякъде на едно и също място, а именно осигуряване на капацитет за използване на автономни системи за оръжия на потенциално смъртоносна основа.

Процесът на достигане до тази крайна точка вероятно ще бъде различен.

За изцяло въоръжените автономни системи, които бяха определени като оръжия, аспектите на оръжията обикновено са отпред и в центъра. Може да кажете, че аспектите на автономната система са обвити около крайъгълния камък на каквото и оръжие да се разглежда. Процесът на мислене на разработчиците е донякъде по линията на това как едно оръжие може да използва появата на автономни системи.

Другата гледна точка обикновено изобщо не е от това мислене. Разработчиците искат да извлекат най-съвременна автономна система, може би за подобряването на човечеството. Тези разработчици вложиха искреното си сърце и душа в създаването на автономната система. Това е сърцевината на тяхното изобретение. Те може да не си представят, че някой ще узурпира или подкопае тяхното чудотворно полезно устройство. Те са блажено влюбени в социалните ползи, свързани с оформянето и производството на автономна система.

В един момент, да кажем, че трети страни осъзнават, че автономната система може да бъде пренастроена, за да бъде въоръжена. Може би те подвеждат разработчиците да им позволят автономната система за това, което се твърди, че е възвишени цели. Зад затворени врати тези злодеи избират тайно да добавят капацитет за оръжие към автономната система. Ето, невинността се превърна в откровено оръжие.

Не е нужно нещата да се развиват по този начин.

Може би на разработчиците е казано, че разработват невинна автономна система, но тези, които финансират или насочват усилията, имат други цели в ума. Може би усилията за автономна система наистина започнаха невинно, но след това, когато трябваше да се платят сметките, ръководството сключи сделка с източник на финансиране, който иска автономните системи по нечестни причини. Друга възможност е, че разработчиците са знаели, че по-късна употреба може да бъде за оръжие, но са смятали, че ще прекосят този мъчителен мост, когато или ако някога се появи. и т.н.

Има много и много различни пътища за това как всичко това се случва.

Може да ви е интересно, че описах в предишни колони, че има нарастваща осведоменост относно етиката на ИИ по отношение на с двойна употреба елементи на съвременния AI, вж връзката тук. Позволете ми да ви запозная накратко.

Една AI система, която е предвидена за добра, понякога може да бъде на ръба на лошата, може би чрез някои доста прости промени, и съответно се счита за такава с двойна употреба. В новините наскоро беше система с изкуствен интелект, създадена за откриване на химикали, които може да са убийци, за които разработчиците искаха да се уверят, че можем да избягваме или да внимаваме с такива зле замислени химикали. Оказва се, че изкуственият интелект може да бъде донякъде лесно променен, за да разкрива целенасочено тези убийствени химикали и по този начин потенциално да позволи на лошите да знаят какви видове химикали потенциално да приготвят за своите ужасни зли планове.

Автономните системи могат очевидно да се впишат в тази обвивка с двойна употреба.

До известна степен това е причината етиката на ИИ и етичният ИИ да е толкова важна тема. Предписанията на ИИ етиката ни карат да останем бдителни. AI технолозите понякога могат да бъдат заети с технологиите, особено с оптимизирането на високите технологии. Те не обмислят непременно по-големите обществени разклонения. Наличието на мислене относно етиката на ИИ и правенето на това неразделна част от разработването и внедряването на ИИ е от жизненоважно значение за създаването на подходящ ИИ, включително (може би изненадващо или иронично) оценката на начина, по който етиката на ИИ се възприема от фирмите.

Освен използването на принципите на етиката на ИИ като цяло, има съответен въпрос дали трябва да имаме закони, които да управляват различните употреби на ИИ. Нови закони се обединяват на федерално, щатско и местно ниво, които засягат обхвата и естеството на начина, по който трябва да се създаде ИИ. Усилията за изготвяне и приемане на такива закони са постепенни. Етиката на ИИ служи най-малкото като временно средство и почти сигурно до известна степен ще бъде директно включена в тези нови закони.

Имайте предвид, че някои категорично твърдят, че не се нуждаем от нови закони, които обхващат AI и че съществуващите ни закони са достатъчни. Всъщност те предупреждават, че ако приемем някои от тези закони за ИИ, ще подкопаем златната гъска, като ограничим напредъка в ИИ, който предлага огромни предимства за обществото.

Автономията и оръжието като две предписания

Има крилата фраза, която някои използват, за да предупредят за въоръжени автономни системи от всякакъв вид, които се измислят колективно като slaughterbots.

Това повдига допълнителен аспект, върху който трябва да помислим.

Трябва ли една автономна оръжейна система и/или автономна система, която е била въоръжена, да има преобладаващо смъртоносно или убийствено роботче?

Някои биха възразили, че можем да имаме решително несмъртоносни оръжейни автономни системи също. Следователно, от тази гледна точка, би изглеждало крайно неподходящо да се използват изрази като роботи кланици или роботи убийци. Един несмъртоносен вариант вероятно би могъл да покори или да нанесе вреда, която не е със смъртоносен резултат. Тези такива системи не убиват, те са с по-малък капацитет за генериране на наранявания. Не преувеличавайте способностите, казват тези, които настояват, че не трябва да се занимаваме с откровена машина за убиване.

Така може да имаме това:

  • Смъртоносни автономни оръжейни системи
  • Смъртоносни автономни системи, които са въоръжени
  • Несмъртоносни автономни оръжейни системи
  • Несмъртоносни автономни системи, които са въоръжени

Разбира се, контрааргументът е, че всяка автономна система, която е въоръжена, изглежда има потенциала да се плъзне в сферата на смъртоносността, дори ако се предполага, че е предвидена само за използване на несмъртоносна основа. Постепенните две стъпки за преминаване от несмъртоносно към смъртоносно ще бъдат предприети бързо, след като вече сте взели в ръка оръжие сред автономна система. Ще ви бъде трудно да предоставите желязна гаранция, че несмъртоносните няма да са се измъкнали в смъртоносната арена (въпреки че някои се опитват да го направят, в математическа прилика).

Преди да навлезем много по-нататък в тази цялостна тема за автономните системи и оръжията, може да е полезно да посочим нещо друго, което макар и очевидно очевидно, не е непременно видимо в главата.

Ето го:

  • Има аспект на ИИ, който е неразделна част от автономната система
  • Има оръжеен аспект, който е оръжейната страна на това уравнение
  • AI също може да бъде свързан с оръжията

Нека го разопаковаме.

Ще приемем, че днешните автономни системи изискват AI като основно компютъризирано средство за извеждане на автономните аспекти. Споменавам това, защото бихте могли да се опитате да спорите, че можем да използваме технологии и техники, които не са свързани с ИИ, за да направим автономните системи, което макар и вярно, ще изглежда все по-малко вероятно. По принцип AI има тенденция да позволява по-високи нива на автономност и повечето използват съответно AI високотехнологични.

Добре, така че имаме възможност, базирана на изкуствен интелект, която се влива по някакъв начин в автономната система и действа, за да насочва и контролира автономната система.

Дръжте го на върха на пръстите си като правило.

Изглежда лесно очевидно, че ние също трябва да имаме някаква форма на оръжие, иначе защо обсъждаме тук темата за автономните системи намлява оръжия. Така че, да, очевидно има оръжие от един или друг вид.

Няма да се задълбочавам в вида оръжие, което може да се използва. Можете просто да замените каквото оръжие ви дойде на ум. Може да има точково оръжие. Може да има масово ориентирано разрушително оръжие. Може да е нещо с куршуми или снаряди. Може да е нещо, което съдържа химикали или атомни летливи компоненти. Списъкът е безкраен.

Допълнителното съображение е дали AI е свързан с оръжия или не. Изкуственият интелект може просто да вземе оръжието за разходка. В случая с четириногия робот, който стреля с пистолет, може би пистолетът се стреля от човек, който има дистанционно управление, свързано със задействането на оръжието. Подобният на куче робот навигира в сцена и след това зависи от отдалечен човек да натисне спусъка.

От друга страна, AI може да бъде спусъка, така да се каже. AI може да е създаден не само да навигира и маневрира, но и да активира оръжието. В този смисъл ИИ прави всичко от А до Я. Няма зависимост от отдалечен човек, който да изпълнява оръжейната страна на нещата. AI е програмиран да прави това вместо това.

За да изясним тогава, в този конкретен случай на използване на автономни системи, които са оръжейни, имаме следните видове възможности:

  • Автономна система: AI управлява автономната система изцяло самостоятелно
  • Автономна система: AI управлява автономната система, но човек в цикъла също може да се намеси
  • оръжия: Отдалечен човек управлява оръжията (ИИ не го прави)
  • оръжия: AI управлява оръжията, но човек в цикъла също може да се намеси
  • оръжия: AI управлява оръжията изцяло самостоятелно

По-рано разгледах вариантите на наличието на човек в цикъла относно автономните системи и автономните превозни средства, вж. връзката тук.

Когато гледате тези забавно ориентирани видеоклипове на танцуващи и скачащи четириноги роботи, те обикновено се предполага, че са роботи, които се управляват изключително от AI (добре, това е обичаят или се счита за правилен етикет сред тези, които са дълбоко по тези въпроси). Това е, което може и с право да предположите. Разбира се, не знаете това със сигурност. Възможно е отдалечен човешки оператор да ръководи роботите. Има също така възможност AI да извършва част от насочването и отдалечен човешки оператор също да го прави, може би помагайки на AI, ако роботът изпадне в трудна позиция и не може изчислително да изчисли жизнеспособно средство да се освободи.

Същността тук е, че има многобройни вкусове за това как AI и автономните системи и оръжията могат да бъдат смесени. Някои имат AI, който управлява автономната система, но не управлява оръжията. Човек може да управлява дистанционно оръжието. Друг ъгъл е, че оръжието може да е активирано предварително и автономната система доставя активираното оръжие, като по този начин AI не е участвал директно в задействането на оръжието само по себе си и вместо това е действал като превозно средство за доставка. Възможно е изкуственият интелект да е пословичен умник и да прави цялата гама от аспекти на автономната система и за използването на оръжия.

Избери си.

Междувременно, моля, знайте, че човекът в цикъла е голям фактор, когато става въпрос за дебати по тази тема.

Разделителната линия от някои е, че ако AI прави насочването и стрелбата (или каквото и да включва оръжието), тогава целият комплект и caboodle са преминали в не-няма земя. Това привидно се различава от конвенционалните оръжия „стреляй и забрави“, които имат предварително насочена селекция, определена от човека, като например патрулиращ дрон, който има ракета, готова за изстрелване по цел, която е била вече избран от човек.

Някои се чудят защо автономните системи, които са въоръжени, не винаги включват човек в цикъла по време на процеса на автономната система, която е в активен статус. Изглежда, че може да сме по-добре, ако едно строго изискване беше, че всички такива оръжейни автономни системи трябва да имат човек в цикъла, или да го правят за работата на автономната система или за управление на оръжието (или и за двете) . Поддържането на предполагаема сигурна и стабилна човешка ръка в тази смес от AI може да изглежда напълно хитро.

Пригответе се за дълъг списък от причини, поради които това не е непременно осъществимо.

Помислете за тези трудности:

  • Човекът в цикъла може да не е достатъчно бърз, за ​​да реагира навреме
  • Human-in-the-loop може да няма достатъчно информация, за да отговори прилежно
  • Human-in-the-loop може да не е наличен в необходимото време
  • Human-in-the-loop може да е нерешителен и да не действа, когато е необходимо
  • Human-in-the-loop може да вземе „грешното“ решение (сравнително)
  • Human-in-the-loop може да не е достъпен от системата в необходимия момент
  • Human-in-the-loop може да се обърка и да бъде претоварен
  • Т.н.

Несъмнено сте изкушени да разгледате този списък с човешки слабости и ограничения и след това да стигнете до тържественото заключение, че има очевиден смисъл да се изтрие човекът в цикъла и вместо това винаги да се използва ИИ. Това може да бъде или изключването на човека в цикъла, или може би изкуственият интелект може да отмени вкоренен дизайн на човек в цикъла. Вижте моя анализ за това как разногласията между AI и човек в цикъла могат да доведат до несигурни ситуации, разгледан на връзката тук.

Често омаловажаващ списък с тези видове недостатъци в реално време, фокусирани върху човека, остава сам по себе си и оставя усещането, че изкуственият интелект трябва по някакъв начин да бъде много по-мъдър избор от наличието на човек в цикъла . Не попадайте в този коварен капан. Налице са отрезвяващи компромиси.

Помислете за тези разклонения на AI:

  • AI може да срещне грешка, която го кара да се заблуди
  • AI може да бъде претоварен и да блокира без реакция
  • AI може да съдържа грешки на разработчиците, които причиняват хаотично поведение
  • AI може да бъде повреден с имплантиран злодеен вирус
  • AI може да бъде превзет от киберхакери в реално време
  • AI може да се счита за непредсказуем поради сложност
  • AI може изчислително да вземе „грешното“ решение (относително)
  • Т.н.

Вярвам, че можете да видите, че има компромиси между използването на човек в цикъла и това да разчитате единствено на AI. В случай, че се изкушавате да предположите, че готовото решение е да използвате и двата, бих искал само да подчертая, че можете да получите най-доброто от двата свята, но можете да получите и най-лошото от двата свята. Не приемайте, че винаги и със сигурност ще бъде най-доброто от двата свята.

Може да сте били изненадани донякъде от един от изброените по-горе недостатъци на AI, по-специално, че AI може да бъде непредсказуема. Свикнали сме да вярваме, че AI трябва да бъде строго логичен и математически прецизен. Като такъв, можете също да очаквате, че AI ще бъде напълно предвидим. Трябва да знаем точно какво ще направи AI. Точка, край на историята.

Съжалявам, че спуках този балон, но този мит за предсказуемостта е погрешно название. Размерът и сложността на съвременния AI често е блато, което не може да бъде напълно предвидимо. Това се забелязва в шумовете на етичния AI относно някои днешни употреби на машинно обучение (ML) и задълбочено обучение (DL). Ще обясня малко повече за момент.

Освен това може да искате да разгледате последния ми анализ на предстоящите тенденции към опити за осигуряване на проверими и математически доказуемо правилни AI системи чрез най-новото в безопасността на AI, на връзката тук.

Размишляване върху правилата на пътя

Бях споменал понятието цели и насочване, което е доста натоварена терминология, която заслужава специално внимание.

Можем да разсъждаваме върху това:

  • Цели, които са хора
  • Цели, които не са хора, а са живи същества
  • Цели, които се тълкуват като собственост

Да предположим, че имаме автономна система, която е въоръжена. AI се използва за насочване на автономната система и за оръжия. AI прави всичко от А до Я. Няма разпоредба за човек в цикъла. По отношение на насочването, AI ще избере целите. Няма предварително насочване, което да е установено от хора. Вместо това изкуственият интелект е програмиран като цяло да установи дали има хора, които трябва да бъдат насочени (може би сканиране за враждебни действия, определени видове униформи и т.н.).

С мен досега?

Този сценарий е до голяма степен този, който предизвиква най-много протести относно оръжейните автономни системи.

Заявената загриженост е, че AI прави (поне) три неща, които не трябва да му се позволяват:

  • Насочване към хората като мишени
  • Насочване без използване на човек в цикъла
  • Потенциално действа непредвидимоly

Забележете, че има подчертано споменаване на притесненията относно това, че AI е непредсказуем. Може да се окаже, че въпреки че AI е бил програмиран да се насочва към определени видове хора, програмирането на AI не е това, което си мислехме, че е, и AI в крайна сметка се насочва към „приятели“ в допълнение към тези, които AI трябваше да тълкува като „враждебни“ ” (или, може би вместо). Освен това, дори ако изберем да включим разпоредба за човек в цикъла, непредсказуемостта на AI може да означава, че когато AI трябва да се съгласува с човека в цикъла, той не успява да направи така и действа без човешка намеса.

Може да ви се стори интересно, че Международният комитет на Червения кръст (МКЧК) е предложил всеобхватна позиция от три точки относно автономните оръжейни системи, която разработва тези видове опасения (според уебсайта на МКЧК):

1. „Непредсказуемите автономни оръжейни системи трябва да бъдат изрично управлявани от, особено поради техните безразборни ефекти. Това ще бъде постигнато най-добре със забрана на автономни оръжейни системи, които са проектирани или използвани по начин, който не позволява ефектите им да бъдат достатъчно разбрани, предвидени и обяснени.

2. „В светлината на етичните съображения за защита на човечеството и за спазване на правилата на международното хуманитарно право за защита на цивилни лица и бойци извън бойните действия, използването на автономни оръжейни системи за насочване към хора следва да бъде изключено. Това ще бъде постигнато най-добре чрез забрана на автономни оръжейни системи, които са проектирани или използвани за прилагане на сила срещу хора.

3. „За да се защитят гражданите и гражданските обекти, да се спазват правилата на международното хуманитарно право и да се защити човечеството, проектирането и използването на автономни оръжейни системи, които не биха били забранени, трябва да бъдат регулирани, включително чрез комбинация от: ограничения за видовете цели, като например ограничаването им до обекти, които по природа са военни цели; ограничения на продължителността, географския обхват и мащаба на използване, включително за да се позволи човешка преценка и контрол във връзка с конкретна атака; ограничения на ситуациите на употреба, като например ограничаването им в ситуации, в които не присъстват цивилни лица или цивилни обекти; rизисквания за взаимодействие човек-машина, особено за осигуряване на ефективен човешки надзор и навременна намеса и дезактивиране.“

Във връзка с това Обединените нации (ООН) чрез Конвенцията за някои конвенционални оръжия (CCW) в Женева са установили единадесет необвързващи ръководни принципа относно леталните автономни оръжия, съгласно официалния доклад, публикуван онлайн (включващ препратки към съответните международни хуманитарни Закон или разпоредби на МХП):

а) международното хуманитарно право продължава да се прилага изцяло за всички оръжейни системи, включително потенциалното разработване и използване на смъртоносни автономни оръжейни системи;

(b) Човешката отговорност за решенията относно използването на оръжейни системи трябва да се запази, тъй като отговорността не може да бъде прехвърлена на машини. Това трябва да се има предвид през целия жизнен цикъл на оръжейната система;

в) Взаимодействието човек-машина, което може да приеме различни форми и да се реализира на различни етапи от жизнения цикъл на дадено оръжие, следва да гарантира, че потенциалното използване на оръжейни системи, базирани на нововъзникващи технологии в областта на смъртоносните автономни оръжейни системи, е в спазване на приложимото международно право, по-специално МХП. При определяне на качеството и степента на взаимодействие човек-машина трябва да се вземат предвид набор от фактори, включително оперативния контекст и характеристиките и възможностите на оръжейната система като цяло;

(d) Отчетността за разработването, разгръщането и използването на всяка нова оръжейна система в рамките на КОО трябва да бъде осигурена в съответствие с приложимото международно право, включително чрез функционирането на такива системи в рамките на отговорна верига на човешко командване и контрол;

(e) В съответствие със задълженията на държавите по международното право, при проучването, разработването, придобиването или приемането на ново оръжие, средство или метод за водене на война, трябва да се определи дали използването му, при някои или всички обстоятелства, ще бъде забранени от международното право;

е) При разработване или придобиване на нови оръжейни системи, базирани на нововъзникващи технологии в областта на смъртоносните автономни оръжейни системи, физическа сигурност, подходящи нефизически предпазни мерки (включително киберсигурност срещу хакване или подправяне на данни), рискът от придобиване от терористични групи и трябва да се вземе предвид рискът от разпространение;

ж) Оценките на риска и мерките за смекчаване следва да бъдат част от цикъла на проектиране, разработване, тестване и внедряване на нововъзникващи технологии във всякакви оръжейни системи;

з) Следва да се обмисли използването на нововъзникващи технологии в областта на смъртоносните автономни оръжейни системи при спазването на МХП и други приложими международни правни задължения;

(i) При разработването на потенциални политически мерки нововъзникващите технологии в областта на смъртоносните автономни оръжейни системи не следва да бъдат антропоморфизирани;

й) Дискусиите и всякакви потенциални политически мерки, предприети в контекста на КОО, не следва да възпрепятстват напредъка или достъпа до използване за мирни цели на интелигентни автономни технологии;

к) КОО предлага подходяща рамка за справяне с въпроса за нововъзникващите технологии в областта на смъртоносните автономни оръжейни системи в контекста на целите и задачите на Конвенцията, която се стреми да постигне баланс между военната необходимост и хуманитарните съображения.

Трудността, в която се намираме

Тези различни закони за война, закони за въоръжени конфликти или МХП (Международни хуманитарни закони) служат като жизненоважно и винаги обещаващо ръководство за разглеждане на това какво можем да се опитаме да направим относно появата на автономни системи, които са въоръжени, независимо дали чрез основен дизайн или чрез постфактум методи.

Можем искрено да желаем забраната за смъртоносни оръжейни автономни системи да се спазва стриктно и послушно. Проблемът е, че много място за мърдане е обвързано да се намери хитро във всяка от най-искрените забрани. Както се казва, правилата са предназначени да бъдат нарушавани. Можете да се обзаложите, че там, където нещата са хлабави, riffraff ще открият пропуски и ще се опитат да намигат-намигат, заобикаляйки правилата.

Ето някои потенциални вратички, които заслужават внимание:

  • Претенции за несмъртоносни, Марка несмъртоносни автономни оръжейни системи (изглежда добре, тъй като е извън границата на забраната), които след това можете да превърнете в смъртоносни (ще бъдете отвъд забраната само в последния момент).
  • Искове само за автономна система. Поддържайте забраната, като не създавате смъртоносно фокусирани автономни системи, като същевременно постигнете колкото се може повече напредък в разработването на ежедневни автономни системи, които (все още) не са въоръжени, но които можете да модернизирате с една стотинка, за да бъдете оръжия.
  • Претенции за неинтегрирани като едно. Създайте автономни системи, които изобщо не са въоръжени, а когато дойде времето, въоръжение с контрацепция, така че да можете да се опитате яростно да спорите, че те са два отделни елемента и следователно да твърдите, че не попадат в рубриката на всичко-в-едно автономна оръжейна система или неин братовчед.
  • Твърди, че не е автономен. Направете оръжейна система, която не изглежда да е с автономни възможности. Оставете място в тази предполагаемо неавтономна система за въвеждане на автономност, базирана на AI. Когато е необходимо, включете автономността и сте готови за пускане (дотогава изглежда, че не сте нарушавали забраната).
  • Други

Има много други изразени трудности при опитите за пълна забрана на смъртоносните автономни оръжейни системи. Ще покрия още няколко от тях.

Някои експерти твърдят, че забраната не е особено полезна и вместо това трябва да има регулаторни разпоредби. Идеята е, че тези устройства ще бъдат разрешени, но строго контролирани. Изложена е литария от законни употреби, заедно със законни начини за насочване, законни видове способности, законна пропорционалност и други подобни.

Според тях директната забрана е като да си заровиш главата в пясъка и да се преструваш, че слонът в стаята не съществува. Това твърдение обаче кара кръвта да кипи на онези, които се противопоставят на аргумента, че чрез въвеждане на забрана можете драстично да намалите иначе изкушението да преследвате този вид системи. Разбира се, някои ще парадират със забраната, но поне се надяваме, че повечето няма да го направят. След това можете да съсредоточите вниманието си върху парадиращите и да не се налага да насочвате вниманието си към всички.

Тези дебати се въртят.

Друго често отбелязвано притеснение е, че дори добрите да спазват забраната, лошите не. Това поставя добрия в гадно положение. Лошите ще имат тези видове оръжейни автономни системи, а добрите няма. След като нещата се разкрият, че лошите ги имат, ще бъде твърде късно добрите да ги настигнат. Накратко, единственото проницателно нещо, което трябва да направите, е да се подготвите да се борите с огъня с огън.

Съществува и класическият спор за възпиране. Ако добрите изберат да създадат оръжейни автономни системи, това може да се използва за възпиране на лошите от опити да влязат в битка. Или добрите ще бъдат по-добре въоръжени и по този начин ще разубедят лошите, или добрите ще бъдат готови, когато лошите може би разкрият, че тайно са измисляли тези системи през цялото време.

Противодействието на тези контра е, че като създавате оръжейни автономни системи, вие водите надпревара във въоръжаването. Другата страна ще се стреми да има същото. Дори и да са технологично неспособни да създадат такива системи наново, те вече ще могат да откраднат плановете на „добрите“, да направят обратен инженеринг на високотехнологичните вътрешности или да имитират каквото и да изглежда, че виждат като изпитано начин да се свърши работата.

Аха, малко реплика, всичко това може да доведе до намаляване на конфликтите като че ли взаимно. Ако страна А знае, че страна Б има тези смъртоносни оръжия за автономни системи, а страна Б знае, че страна А ги има, те може да стоят спокойни и да не стигнат до сблъсъци. Това има тази различна аура на вибрации за взаимно гарантирано унищожение (MAD).

И така нататък.

ИИ в автономията

Нека се уверим, че сме на една и съща страница относно природата на днешния AI.

Днес няма ИИ, който да е разумен. Ние нямаме това. Не знаем дали разумният AI ще бъде възможен. Никой не може точно да предвиди дали ще постигнем разумен AI, нито дали разумният AI по някакъв чудотворен начин ще възникне спонтанно под формата на изчислителна когнитивна свръхнова (обикновено наричана сингулярност, вижте моето покритие на връзката тук).

Типът AI, върху който се фокусирам, се състои от нечувствителния AI, който имаме днес. Ако искахме диво да спекулираме за съзнателен AI, тази дискусия може да отиде в коренно различна посока. Предполага се, че разумният AI би бил с човешко качество. Трябва да имате предвид, че разумният ИИ е когнитивен еквивалент на човек. Нещо повече, тъй като някои спекулират, че може да имаме свръхинтелигентен AI, е възможно такъв AI да се окаже по-умен от хората (за моето изследване на свръхинтелигентен AI като възможност, вж. покритието тук).

Нека запазим нещата по-приземени и да разгледаме днешния изчислителен нечувствителен AI.

Осъзнайте, че днешният AI не е в състояние да „мисли“ по никакъв начин наравно с човешкото мислене. Когато взаимодействате с Alexa или Siri, възможностите за разговор може да изглеждат подобни на човешките способности, но реалността е, че е изчислителна и липсва човешко познание. Най-новата ера на AI използва широко машинно обучение (ML) и дълбоко обучение (DL), които използват съвпадение на изчислителни модели. Това доведе до системи с изкуствен интелект, които имат вид на човешки склонности. Междувременно, днес няма никакъв изкуствен интелект, който да има подобие на здрав разум и да няма когнитивното чудо на здравото човешко мислене.

Бъдете много внимателни с антропоморфизирането на днешния AI.

ML/DL е форма на съвпадение на изчислителни модели. Обичайният подход е, че събирате данни за задача за вземане на решение. Вие подавате данните в компютърните модели ML/DL. Тези модели се стремят да намерят математически модели. След намиране на такива модели, ако бъдат открити, системата AI ще използва тези модели, когато срещне нови данни. При представяне на нови данни, моделите, базирани на „старите“ или исторически данни, се прилагат за вземане на текущо решение.

Мисля, че можете да познаете накъде води това. Ако хората, които са вземали решения по модел, са включвали неблагоприятни пристрастия, има вероятност данните да отразяват това по фини, но значими начини. Съпоставянето на изчислителни модели с машинно обучение или дълбоко обучение просто ще се опита да имитира математически данните съответно. Няма подобие на здрав разум или други разумни аспекти на моделирането, създадено от AI, само по себе си.

Освен това разработчиците на AI също може да не осъзнават какво се случва. Тайната математика в ML/DL може да затрудни откриването на сега скрити пристрастия. С право се надявате и очаквате, че разработчиците на AI ще тестват за потенциално заровените пристрастия, въпреки че това е по-сложно, отколкото може да изглежда. Съществува солидна възможност дори при сравнително обширно тестване да има отклонения, все още вградени в моделите за съвпадение на модели на ML/DL.

Можете донякъде да използвате известната или скандална поговорка за боклука-в боклука-извън. Работата е там, че това е по-подобно на пристрастия, които коварно се вливат като пристрастия, потопени в AI. Алгоритъмът за вземане на решения (ADM) на AI аксиоматично се натоварва с неравенства.

Не е добре.

С този добавен основополагащ фон, ние се обръщаме отново към темата за автономните системи и оръжията. По-рано видяхме, че AI влиза в компонента на автономната система и също така може да влезе в компонента за оръжие. ИИ днес не е разумен. Това си струва да се повтори и ще подчертая това за допълнителна представа по тези въпроси.

Нека проучим някои сценарии, за да видим как това е решаващо съображение. За момент ще се откажа от военновременната ориентация по тази тема и ще покажа как тя прониква в много други социални среди. Стабилизирайте се съответно.

Базирана на AI автономна система като автономно превозно средство, което ще кажем, че няма нищо общо с оръжия, си проправя път през нормален локал. Човек идва, за да използва автономното превозно средство. Човекът е въоръжен с предизвестено оръжие. Приемете за целите на дискусията в този конкретен сценарий, че човекът има нещо неблагоприятно предвид. Човекът влиза в автономното превозно средство (носейки оръжието си, скрито или нескрито, така или иначе).

Автономното превозно средство продължава до дестинацията, която ездачът е поискал. В този случай изкуственият интелект просто програмно превозва този пътник от едно място за качване до определена дестинация, точно както е правил за вероятно десетки или стотици пътувания всеки ден.

Ако това беше човешки шофьор и превозно средство, управлявано от хора, вероятно има някакъв шанс човешкият шофьор да разбере, че пътникът е въоръжен и изглежда има неблагоприятни намерения. Човешкият шофьор може да откаже да управлява превозното средство. Или човешкият шофьор може да кара до полицейския участък. Или може би човешкият шофьор може да се опита да покори въоръжения пътник (съществуват докладвани случаи) или да разубеди пътника да използва оръжието си. Това е доста сложно и могат да съществуват произволен брой вариации. Трудно ще ви е да твърдите, че има само един правилен отговор за разрешаването на подобно затруднение. За съжаление, ситуацията е тревожна и очевидно опасна.

AI в този случай е малко вероятно да бъде програмиран за някоя от тези видове възможности. Накратко, въоръженият пътник може да може да използва оръжието си, правейки го от вътрешността на автономното превозно средство, по време на шофирането. Системата за шофиране с изкуствен интелект ще продължи да се движи и автономното превозно средство ще продължи да се насочва към посоченото обозначение на пътника (ако се приеме, че дестинацията не се счита за извън границите).

Повечето съвременни системи за шофиране с изкуствен интелект биха се фокусирали изчислително само върху пътното платно, а не върху усилията на водача.

Нещата могат да станат по-лоши от това.

Да предположим, че някой иска да има куп хранителни стоки, транспортирани до място, което приема допълнителна храна за нуждаещите се. Човекът иска автономно превозно средство и поставя чантите с хранителни стоки на задната седалка на превозното средство. Те няма да се присъединят към пътуването и просто използват автономното превозно средство, за да доставят торбите с храна вместо тях.

Изглежда напълно добре.

Представете си, че един подъл човек избира вместо това да постави някаква форма на оръжие в автономното превозно средство, а не по-миролюбивото понятие за торбички за хранителни стоки. Мисля, че можете да познаете какво може да се случи. Това е проблем, за който многократно съм призовавал в моите колони и предупреждавам, че трябва да се справим с него по-рано, отколкото по-късно.

Един предложен отговор на този тип сценарии е, че може би всички автономни превозни средства могат да бъдат програмирани да използват своите камери и други сензори, за да се опитат да открият дали потенциален пътник е въоръжен и има нечестиви намерения. Може би AI ще бъде програмиран да прави това. Или AI по електронен път и безшумно предупреждава отдалечен човешки оператор, който след това чрез камерите визуално и по друг начин ще изследва и евентуално ще взаимодейства с пътника. Всичко това е част от сложна и потенциално неразрешима кутия с червеи, така че повдига сериозни проблеми с поверителността и множество други потенциални опасения относно етичния AI. Вижте моето покритие на връзката тук.

Друга донякъде подобна алтернатива е, че AI съдържа някакъв вид вградено етично програмиране, което се опитва да даде възможност на AI да прави етични или морални преценки, които обикновено са запазени за хората, вземащи решения. Проучвал съм тези пивоварни видове вградени в AI изчислителни етични прогностици, вижте връзката тук намлява връзката тук.

Връщайки се към сценарий на бойното поле, представете си, че смъртоносна автономна оръжейна система кръжи над бойна зона. AI управлява автономната система. AI управлява оръжията на борда. По-рано бяхме разбрали за възможността AI да бъде програмиран да сканира за привидно враждебни движения или други индикатори за човешки цели, считани за валидни бойци.

Трябва ли същият този AI да има някакъв вид етично ориентиран компонент, който се стреми да обмисли изчислително какво може да направи един човек в цикъла, действайки в известен смисъл вместо наличието на човек в цикъла?

Някои казват да, нека продължим това. Някои се отдръпват ужасени и казват, че или е невъзможно, или по друг начин нарушава светостта на човечеството.

Още една кутия с червеи.

Заключение

За тези от вас, които се интересуват от тази тема, има много повече за обсъждане.

Ще ви дам набързо да опитате една мъчителна главоблъсканица.

Обикновено очакваме, че човек в крайна сметка ще бъде държан отговорен за всичко, което се случва по време на война. Ако AI контролира автономна оръжейна система или контролира автономна система, която може би е била въоръжена, и тази система направи нещо на бойното поле, за което се смята, че е безсъвестно, кой или какво трябва да бъде обвинен за това?

Може да възразите, че AI трябва да носи отговорност. Но ако е така, какво точно означава това? Ние все още не считаме днешния AI за въплъщение на юридическата личност, вижте моето обяснение на връзката тук. В случая с изкуствения интелект няма заковаване на опашката на магарето. Може би, ако AI някой ден стане разумен, можете да опитате да го направите. Дотогава това е малко постижимо (плюс това, на какви наказания или последствия ще бъде подложен AI, вижте моя анализ на връзката тук намлява връзката тук, например).

Ако изкуственият интелект не е отговорният заподозрян, тогава естествено бихме могли да кажем, че какъвто и човек или хора да са създали изкуствения интелект, трябва да се търси отговорност. Можете ли да направите това, ако AI просто управляваше автономна система и се появиха някои хора, които го съчетаха с оръжие? Преследвате ли разработчиците на AI? Или тези, които са разположили AI? Или само оръжейният актьор?

Вярвам, че схващате идеята, че докоснах само върха на айсберга в сърдечната си дискусия.

Засега нека да приключим този дискурс. Може би си спомняте, че Джон Лили влезе Euphues: Анатомията на остроумието през 1578 г. запомнящо се заявява, че всичко е справедливо в любовта и войната.

Щеше ли да има предвид появата на автономни оръжейни системи и по същия начин появата на автономни системи, които са оръжейни?

Със сигурност трябва да поставим това на върха на ума си, веднага.

Източник: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- оръжейни-системи-и-експлоатацията-на-автономни-системи,-които-са-дяволски-въоръжени/