Етиката на ИИ, противопоставяща се на това дали ядосаните хора, които насилствено разбиват или малтретират, ИИ е тревожно неморален, като тези разгневени хора, които се нахвърлят срещу напълно автономни системи с ИИ

Ето защо не можем да имаме хубави неща.

Вероятно сте чували или виждали този доста популярен израз и веднага разбирате за какво намеква. Вярвате или не, умната част от мъдростта на мъдреца изглежда датира поне от 1905 г., когато подобна фраза се появява в Хуманитарният преглед от Елиза Блвен. Като цяло, същността на прозрението е, че понякога в крайна сметка разбиваме, удряме, чупим или напълно съсипваме предмети или артефакти, които иначе изглеждат незаслужаващи такова отношение.

Може да кажете, че ние понякога малтретирам предмети и артефакти, дори такива, които уж сме обожавали или ценяли.

Това може да се случи случайно, като невнимание и изпускане на любимия смартфон в шкафа (за съжаление, това е един от най-често цитираните начини, по които смартфоните стават неизползваеми). От друга страна, може би в пристъп на гняв, избирате да хвърлите смартфона си през стаята и той се удря в голяма мебел или директно в стената. Шансовете са дисплеят да се счупи и електронните вътрешности вече да не функционират правилно.

Този пристъп на гняв не би могъл да има нищо общо със смартфона сам по себе си. Може би сте се карали с някого и случайно сте излели гнева си върху нещото, което вероятно е било в ръката ви по това време. Смартфонът просто беше на неподходящото място в неподходящото време.

Има обаче случаи, когато обектът по някакъв начин се свързва с бушуващия изблик. Например, вие отчаяно чакате важно обаждане и вашият смартфон изненадващо спира да работи. Какво разочарование! Този проклет такъв и такъв смартфон изглежда винаги се отказва в най-лошия момент, мислите си. Е, по дяволите, смартфонът ще плати за това последно престъпление, като бъде незабавно хвърлен през стаята. Вземете това, не сте добър смартфон.

Трябва ли яростта винаги да е компонент?

Може би спокойно сте решили, че вашият смартфон е достигнал края на своята полезност. Ще вземеш нов. По този начин съществуващият смартфон има намалена стойност. Разбира се, бихте могли да опитате да замените донякъде остарелия смартфон, но може би вместо това вземете съзнателно решение, че предпочитате да се забавлявате и да видите колко физическо унижение може да понесе. И така, след обмислени разсъждения, вие рязко хвърляте устройството през стаята и наблюдавате какво се случва. Това е просто вид физичен експеримент, който ви позволява да прецените колко добре е изграден смартфонът.

Съмнявам се, че много от нас използват този вид внимателно настроена логика, когато проявяват агресията си върху обект или артефакт. По-често действието вероятно се извършва в различна нагласа. Изглежда, че това е едно от тези внезапни реакционни действия. След това може да съжалявате за стореното и да се замислите какво е довело до такъв изблик.

Какво потенциално ни казва този вид свирепо действие спрямо неодушевен предмет за човека, който предприема такова нагло и привидно неблагоприятно действие?

Самият обект вероятно не се опитва нарочно да ви заблуди. Когато тостерът ви не препича правилно хляба ви, трудно е да си представите, че тостерът се е събудил онзи ден с мисълта, че ще се опита да обърка закуската ви, като изгори препечения хляб. Това е малко вероятно. Тостерът е просто механично устройство. Работи или не работи. Но идеята, че тостерът е планирал да не работи или да ви постави бърз, като работи против вашите желания, е, това е разпространена идея.

Има някои, които вярват, че всички предмети имат подобие на карма или дух. В тази теория се предполага, че тостерът може да търси отмъщение, ако случайно преди това не сте се погрижили правилно за тостера. Въпреки че това е интересна философска идея, ще прескоча тази метафизична концептуализация и ще остана с по-ежедневното предположение, че обектите са просто обекти (за пояснение, аз не предлагам решение за другата възможност, просто го оставям настрана за момента).

Тази странична допирателна относно кармата или духа беше достойна, тъй като повдига свързан аспект по отношение на човешкото поведение. Виждате ли, може да се изкушим да припишем форма на жизненост на обекти, които са по-близки до това, което обикновено смятаме за съзнателно.

Тостер за десет долара, който е просто устройство, едва ли е нещо, което бихме склонни да помажем с аура, подобна на чувства. Можете да го направите, ако искате, но това е разтежение. Можете също така да започнете да присвоявате усещане на всякакъв вид предмети, като например стол, осветителен стълб, пожарен хидрант и т.н. Изглежда, че обектът трябва да има повече вродени способности, ако ще „разумно“ да присвоим съзнателен - като блясък на нещото.

Когато използвате Alexa или Siri, самото устройство е просто високоговорител и микрофон, но това съвременно удобство със сигурност може да бъде по-добър кандидат за приписване на съзнателни способности. Очевидно можете да взаимодействате с устройството и да продължите разговор, макар и несъмнено накъсан и липсва плавността на нормалните взаимодействия, ориентирани към човека. Независимо от това, има особена лекота да се позволи на Alexa или Siri да се подхлъзнат към съзнателна присвояемост (вижте моята индикация за скорошния случай на Alexa, предоставяща съвет за поставяне на стотинка в електрически контакт под напрежение, на тази връзка тук).

Да предположим, че украсяваме тостера с нещо като обработка на естествен език (NLP), подобно на Alexa или Siri. Можете да говорите с вашия тостер и да му кажете какво количество от желаното препичане искате да направи. Тостерът ще отговори на вашето изказване и след това ще ви каже кога тостът е готов. Това изглежда пренастройва нашето убеждение, че тостерът всъщност се доближава до капацитет, подобен на разум.

Колкото по-близо изглежда, че приближаваме характеристиките на дадено устройство към характеристиките на човешките съоръжения, това също ще ни отведе по пътя към приписване на съзнателни свойства на устройството. Най-очевидните от тях биха били роботите. Всеки най-съвременен ходещ и говорещ робот е длъжен да предизвика вътрешното ни впечатление, че устройството е нещо повече от просто механично или електронно устройство.

Нека ви задам един въпрос и моля, отговорете честно.

Преди да го направя, предполагам, че по някакъв начин сте виждали онези вирусни видеоклипове, показващи доста фантастични роботи, които могат да ходят, пълзят, подскачат или тичат. В някои от тези видеоклипове човек стои наблизо и в началото изглежда, че е готов да хване робота, ако се поклати. Обзалагам се, че повечето от нас смятат това за любезна постъпка, подобно на това, когато малко дете се учи да ходи и е там, за да хване младежа, преди да си удари главата в пода.

Рядко обаче виждате хората да хващат роботите, а вместо това виждате хората да удрят роботите, за да видят какво ще направи роботът след това. Понякога се използва дълга пръчка, може би стик за хокей или бейзболна бухалка. Човекът нарочно и без никакъв срам ще удари робота. Роботът търпи побой, може да се твърди, и ние чакаме да видим как ще реагира роботът.

Ето вашия въпрос.

Когато видите робота да бъде удрян набързо, чувствате ли се зле за робота?

Много хора го правят. Когато такива видеоклипове започнаха да се публикуват, хиляди коментари изразиха гняв от малтретирането на роботите. Какво е направил роботът, за да заслужи този вид неблагоприятна злоупотреба, питаха пламенно хората? Тези хора трябва да бъдат извадени и самите те да бъдат ритнати, казаха някои възмутени. Спрете това и рязко свалете всички подобни видеоклипове.

Лесно бихте могли да се почувствате донякъде по същия начин относно тостер за десет долара, но той вероятно няма да предизвика същите висцерални и шокиращи опасения. Изглежда, че колкото повече се доближава един обект в спектъра на напълно неодушевения обект, който не прилича на човешките способности, към обекти, които приличат повече на човешкото усещане, това би разтърсило чувствителността ни да искаме да припишем човешки морал на обекта .

Нека го разопаковаме допълнително.

Ако притежавате смартфон и искате да го счупите и ако това не навреди на никой друг, изглежда, че от морална гледна точка няма да имаме нищо против подобно действие. Вие го притежавате, можете да правите с него каквото искате (при условие, че действието не накърнява другите).

Разбира се, може да го сметнем за глупаво от ваша страна и това може да има последици. Ако сте готови да унищожите своя смартфон, какво друго можете да направите? Може би разрушителната и привидно безсмислена постъпка е предупреждение за нещо във вас с много по-лош потенциал. По този начин на мислене ние не сме толкова загрижени за смартфона, колкото за това как вашите действия по отношение на смартфона са отражение на вас и вашето поведение.

В случая с хората, които мушкат и блъскат ходещите или пълзящите роботи, вероятно изпитвате облекчение, когато откриете, че тези хора са експериментатори, на които им се плаща или по друг начин професионално удрят роботите по общовалидни причини. Те се опитват да видят колко добре роботът и ИИ, който е в основата на робота, могат да се справят с разрушителни събития.

Представете си, че някой е написал AI програма, която да помогне на робот да може да ходи или пълзи. Те логично биха искали да знаят колко добре се справя ИИ, когато роботът се заблуди и се спъне в нещо. Може ли роботът да балансира сам или да балансира отново, ако е необходимо? Като има хора наблизо, роботите могат да бъдат тествани, като бъдат мушкани или побутвани. Всичко е в името на науката, както се казва.

След като разберете това предупреждение защо хората „зле третират“ роботите, вероятно ще оттеглите гнева си. Възможно е все още да изпитвате притеснение, тъй като да видите човекоподобна конструкция да бъде удряна напомня на хора или животни да бъдат удряни. Знаете обаче, че роботът не „усеща“ нищо, но действията все още са някак лично болезнени за гледане (за повече прозрения относно чувството за афинитет, което хората имат към AI системи като роботи, включително феномен, известен като странното valley, виж моята дискусия на тази връзка тук).

Тези в областта на етиката на ИИ изследват морално-психологическата главоблъсканица, която изпитваме, когато системите на ИИ се третират грубо. Едно от най-големите притеснения е, че онези, които извършват подобно „малтретиране“, може да ни приучат да бъдем по-малко чувствителни към малтретирането от всякакъв вид, включително и опасно хлъзгавия склон на желанието да малтретираме другите хора.

В скорошно проучване, публикувано в Журнал за изкуствен интелект и етика озаглавен „Социално-когнитивни пристрастия в народната етика на ИИ и дискурс на риска“, изследователите описват отрезвяващата материя по следния начин: „Същият феномен може да се превърне в морален психологически проблем по време на ерата на ИИ и роботите. Когато нашата ежедневна реалност е населена с различни интелигентни системи, които нямат статус на морално търпение, хората могат да свикнат с жестокостта и безразличието. Тъй като понякога си мислим, че роботите са живи и в съзнание, може имплицитно да възприемем модели на поведение, които биха могли да повлияят негативно на отношенията ни с други хора” (статията е съавтор на Michael Laakasuo, Volo Herzon, Silva Perander, Marianna Drosinou, Jukka Сундвал, Юси Паломаки и Аку Висала).

В крайна сметка може да се окаже, че неумолимо приемаме, че малтретирането е доста добре да се предприема, независимо дали към обект като базиран на AI робот или живо дишащо човешко същество. Можете да добавите към този списък и възможността за увеличаване на малтретирането на животни. Като цяло, шлюзът на малтретирането може да бъде сурово цунами, което опасно ще потопи всичко, което правим.

Инч по инч ще свикнем с малтретирането на AI системите, а това от своя страна ще намали сантиметър по инч нашето отвращение от лошото третиране като цяло.

Това е етична теория за ИИ, която се проучва внимателно. Това е особено навременно, тъй като системите за изкуствен интелект, които се създават и внедряват, изглеждат и действат по-сходно с човешкия капацитет от всякога. Изкуственият интелект се движи към това да изглежда като човешко съзнание, следователно ние потенциално се изместваме още по-надолу в ужасяващия спектър на малтретиране.

Както ще обясня скоро, има тенденция да антропоморфизираме AI системите. Ние тълкуваме човекоподобния изглеждащ ИИ като приравнен към човешки аспекти, въпреки факта, че днес няма ИИ, който да е разумен и все още не знаем дали разумът някога ще бъде достигнат. Ще попаднат ли хората в умствения капан да приемат малтретирането към ИИ, сякаш е зелена светлина, за да се даде възможност за продължаване на малтретирането към хора и животни (всякакви живи същества)?

Някои твърдят, че трябва да пресечем това в зародиш.

Кажете на хората, че не трябва да се отнасят неправилно към AI системите. Дори тези експериментатори с ходещите и пълзящите роботи правеха лоша услуга, като привидно радостно показваха видеоклиповете на своите усилия. Това е още една тухла в стената на подкопаването на обществените възгледи относно малтретирането. Не позволявайте на снежната топка да започне да се търкаля по острия снежен хълм.

Настоявайте да се отнасяме към всичко с нужното уважение, включително предмети и артефакти. И особено когато тези предмети или артефакти носят или приличат на човешка форма. Ако не можем да спрем тези хора, които искат да хвърлят смартфона си в стената, така да бъде, но когато се стремят да разбият робот или да извършат подобно малтретиране на всяко устройство, което има здрава човешка аура, трябва да стъпим на земята .

Глупости, някои отвръщат с голямо презрение.

Няма връзка между това как хората се отнасят към AI система и идеята, че те по някакъв начин ще променят начина, по който се отнасят към хората и животните. Това са две различни теми. Не ги смесвайте, гласи контрааргументът.

Хората са достатъчно умни, за да отделят действията си спрямо обектите от действията си спрямо живите същества. Правите махане с ръка, като се опитвате да свържете тези точки. Изглежда подобна загриженост е възникнала относно израстването с помощта на видео игри, които позволяват на играчите да стрелят и унищожават видео герои. В този случай вероятно е било по-лошо от нараняването на AI роботи, тъй като видеоиграта понякога ще показва видео герои, които напълно приличат на хора.

Противодействието на този контрааргумент е, че видеоигрите не се занимават с реални обекти. Играчът знае, че е потопен в пейзаж от сънища. Това е далеч от това да хвърлите смартфон през стая или да удряте пълзящ робот с пръчка. Освен това има изследвания, които подкрепят опасенията как играта на видеоигри може да се пренесе в поведението в реалния свят.

Етиката на изкуствения интелект изследва двигателите на човешкото поведение и как ще бъде повлияно появата на сравнително сложни системи, базирани на изкуствен интелект, особено в светлината на понякога малтретирането от страна на хората на такива системи с изкуствен интелект. Говорейки за шофиране (да, промъкнах го там), това ми позволява да се преместя в темата за базираните на AI истински самоуправляващи се коли, които ще се впишат добре в тази цялостна тема.

Виждате ли, в качеството ми на експерт по AI, включително етичните и правни последици, често ме карат да идентифицирам реалистични примери, които демонстрират дилеми, свързани с етиката на AI, така че донякъде теоретичната природа на темата да може да бъде по-лесно разбрана. Една от най-евокативните области, която ярко представя това етично затруднение с ИИ, е появата на базирани на ИИ истински самоуправляващи се автомобили. Това ще послужи като удобен случай на използване или пример за обширна дискусия по темата.

Ето един важен въпрос, който си струва да се обмисли: Появата на истински самоуправляващи се автомобили, базирани на AI, осветлява ли нещо относно неправилното третиране на обекти или артефакти?

Позволете ми малко да разопаковам въпроса.

Първо, имайте предвид, че няма водач-човек, участващ в истинска самоуправляваща се кола. Имайте предвид, че истинските самоуправляващи се автомобили се управляват чрез система за шофиране с изкуствен интелект. Няма нужда от водач-човек на волана, нито има разпоредба човек да управлява превозното средство. За моето обширно и непрекъснато покритие на автономните превозни средства (AV) и особено на самоуправляващите се автомобили, вж. връзката тук.

Бих искал допълнително да изясня какво се има предвид, когато имам предвид истински самоуправляващи се автомобили.

Разбиране на нивата на самоуправляващите се автомобили

Като пояснение, истинските самоуправляващи се автомобили са тези, че AI управлява колата изцяло самостоятелно и няма никаква човешка помощ по време на шофиране.

Тези превозни средства без шофьор се считат за ниво 4 и ниво 5 (вижте моето обяснение на тази връзка тук), докато автомобил, който изисква човешки водач да споделя съвместно усилието за шофиране, обикновено се счита за Ниво 2 или Ниво 3. Колите, които споделят съвместно задачата за шофиране, се описват като полуавтономни и обикновено съдържат различни автоматизирани добавки, които се наричат ​​​​ADAADA
S (усъвършенствани системи за подпомагане на водача).

Все още няма истинска самоуправляваща се кола на ниво 5, за която все още не знаем дали това ще бъде възможно и колко време ще отнеме, за да стигнем до там.

Междувременно усилията на ниво 4 постепенно се опитват да получат известно сцепление, като се подлагат на много тесни и селективни изпитания на обществените пътища, въпреки че има противоречия относно това дали това тестване трябва да бъде разрешено само по себе си (всички ние сме морски свинчета на живот или смърт в експеримент които се провеждат по нашите магистрали и странични пътища, някои твърдят, вижте репортажа ми на тази връзка тук).

Тъй като полуавтономните автомобили изискват човешки шофьор, приемането на тези типове автомобили няма да бъде значително по-различно от шофирането на конвенционални превозни средства, така че няма много ново само по себе си за тази тема (макар че, както ще видите след миг следващите точки като цяло са приложими).

За полуавтономните автомобили е важно обществеността да бъде предупредена за смущаващ аспект, който се появява напоследък, а именно, че въпреки онези човешки шофьори, които продължават да публикуват видеоклипове на себе си, заспали зад волана на автомобил от ниво 2 или 3 , всички ние трябва да избягваме да се заблуждаваме да вярваме, че водачът може да отнеме вниманието им от задачата за шофиране, докато шофира полуавтономна кола.

Вие сте отговорната страна за действията по шофиране на превозното средство, независимо от това колко автоматизация може да бъде хвърлена в ниво 2 или 3.

Самоуправляващи се автомобили и враждебност от страна на хората

За истински самоуправляващи се превозни средства от ниво 4 и ниво 5 няма да има човешки водач, участващ в задачата за шофиране.

Всички пътници ще бъдат пътници.

AI прави шофирането.

Един аспект, който трябва да се обсъди веднага, включва факта, че ИИ, включен в съвременните системи за управление на ИИ, не е разумен. С други думи, AI е съвкупност от компютърно базирано програмиране и алгоритми и със сигурност не е в състояние да разсъждава по същия начин, по който хората могат.

Защо този допълнителен акцент върху AI не е съзнателен?

Тъй като искам да подчертая, че когато обсъждам ролята на системата за управление на AI, не приписвам човешки качества на AI. Моля, имайте предвид, че в наши дни съществува постоянна и опасна тенденция към антропоморфизиране на ИИ. По същество хората приписват човешка чувствителност на днешния ИИ, въпреки неоспоримия и неоспорим факт, че такъв ИИ все още не съществува.

С това уточнение можете да си представите, че системата за управление на изкуствения интелект по някакъв начин няма да „знае“ за аспектите на шофирането. Шофирането и всичко, което води до това, ще трябва да бъдат програмирани като част от хардуера и софтуера на самоуправляващия се автомобил.

Нека да се потопим в безбройните аспекти, които идват да играят по тази тема.

Първо, важно е да се осъзнае, че не всички AI самостоятелни автомобили са едни и същи. Всеки автомобилен производител и самостоятелна техническа фирма приема подхода си към разработването на автомобили за самообслужване. Като такъв е трудно да се правят метене изявления за това какви системи за шофиране ще направят или не.

Освен това, когато се заявява, че системата за управление на изкуствен интелект не прави нещо конкретно, това може по -късно да бъде изпреварено от разработчиците, които всъщност програмират компютъра да направи точно това. Стъпка по стъпка, системите за управление на изкуствен интелект постепенно се подобряват и разширяват. Съществуващо ограничение днес може вече да не съществува в бъдеща итерация или версия на системата.

Вярвам, че това осигурява достатъчно предупреждения, за да лежи в основата на това, което ще разкажа.

Сега сме подготвени да се потопим дълбоко в самоуправляващите се автомобили и етичните AI въпроси около потенциалното ни малтретиране към тези прехвалени автономни превозни средства.

Първо, можете естествено да предположите, че никой не би малтретирал базирана на изкуствен интелект самоуправляваща се кола.

Това изглежда логично. Като цяло приемаме идеята, че едно от основните предимства на самоуправляващите се автомобили е, че те ще участват в много по-малко автомобилни катастрофи, отколкото колите, управлявани от хора. AI няма да пие и да шофира. AI няма да гледа видеоклипове с котки, докато сте на волана. Само в Съединените щати всяка година има около 40,000 2.5 смъртни случая поради автомобилни катастрофи и около XNUMX милиона наранявания, голяма част от които се очаква да не се случват повече, след като имаме преобладаване на самоуправляващите се автомобили по нашите пътища.

Какво не трябва да харесвате в самоуправляващите се автомобили, може би си казвате.

Е, списъкът е доста обширен, вижте моето покритие на тази връзка тук, но поради ограниченото пространство тук ще покрия само няколко от по-забележимо посочените нежелани аспекти.

Както вече споменах в моите колони, има случаи на хора, които хвърлят камъни по преминаващите самоуправляващи се автомобили и според съобщенията поставят метални предмети като пирони на улицата, за да пробият гумите на самоуправляващите се автомобили. Това беше направено по различни твърдяни причини. Едната е, че хората в района, където се движат самоуправляващите се автомобили, са били загрижени, че системите за шофиране с изкуствен интелект не са готови за най-доброто време.

Притесненията бяха, че системата за шофиране с изкуствен интелект може да се обърка, може би да прегази дете, хвърлящо се през улицата или да удари любимо домашно куче, което вероятно криволичи по пътя. Съгласно по-ранната точка за това, че привидно сме третирани като опитни зайчета, вярването беше, че не са извършени достатъчно тестове и подготовка и че самоуправляващите се автомобили са неуместно пуснати. Опитите да се ограничат изпитанията бяха направени като публична проява на гняв от това, че самоуправляващите се автомобили са законно разрешени да се движат наоколо.

Може да е имало и други причини, смесени в случаите. Например, някои предполагат, че човешките шофьори, които разчитат на изкарването на прехраната си чрез споделено пътуване, са били притеснени, че AI е на ръба да ги замени. Това беше заплаха за поминъка им. Със сигурност знаете, че появата на базирани на изкуствен интелект истински самоуправляващи се автомобили все още е далече и проблемът с изместването на работниците не е незабавен. Следователно, изглежда, че хвърлянето на камък и други инциденти вероятно са по-скоро свързани с опасения за безопасността.

За целите ни в тази тема за малтретирането с изкуствен интелект възниква въпросът дали желанието да се предприемат тези донякъде разрушителни действия срещу базираните на изкуствен интелект самоуправляващи се коли е ранен индикатор за хлъзгавия наклон от лошото отношение към изкуствения интелект към малтретирането на хората.

Задръжте тази мисъл.

Друг ъгъл на обмислено неправилно третиране на базирани на AI самоуправляващи се автомобили се състои от „тормоза“, който някои шофьори и дори пешеходци са насочили към тези автономни превозни средства, вижте моите анализи на връзката тук намлява връзката тук.

Накратко, хората-шофьори, които шофират и случайно се натъкват на самоуправляваща се кола, понякога избират да играят трикове, свързани с шофирането, на автомобили без шофьор. Този трик понякога се прави просто за забавление, но в по-голяма степен основата обикновено се дължи на разочарование и раздразнение от днешните системи за управление на AI.

Повечето от системите за управление на AI са програмирани да шофират по строго законен начин. Човешките шофьори не шофират непременно по строго законен начин. Например хората шофьори често шофират над обявеното ограничение на скоростта, правейки го по най-отвратителния начин. Когато човешките шофьори са зад самоуправляваща се кола, човешкият шофьор се оказва блокиран от „бавната“ система за шофиране с изкуствен интелект.

Хората, които живеят в райони, които в момента са добре населени със самоуправляващи се автомобили, са склонни веднага да се разстроят, когато видят самоуправляваща се кола пред себе си. Те знаят, че автономното превозно средство ще направи тяхното шофиране по-дълго, отколкото е необходимо. Така че такива шофьори ще изберат да бъдат агресивни към самоуправляващата се кола.

Шофьорите знаят, че могат да минат около самоуправляващата се кола и да я отрежат. Системата за шофиране с изкуствен интелект просто ще забави автономното превозно средство и то няма да реагира по никакъв начин на пътя. Ако човешки шофьор се опита да направи същия агресивен ход спрямо друг човешки шофьор, шансовете са почти сигурно да възникне възмездие. До известна степен шофьорите смекчават агресивното си шофиране въз основа на осъзнаването, че засегнатият водач може да отмъсти.

Ще отвори ли този тип човешко поведение при шофиране спрямо базирани на AI самоуправляващи се автомобили кутията на Пандора с лошо поведение при шофиране?

Заключение

Поставихме на масата два общи случая на хора, които привидно малтретират базирани на AI самоуправляващи се коли. Първият пример включва хвърляне на камъни и опит за осуетяване на използването на самоуправляващи се автомобили по пътищата. Вторият пример включваше агресивно шофиране на самоуправляващи се автомобили.

Това поражда поне следните опасения:

  • Ще се разпространи ли появата на подобно малтретиране и върху автомобилите, управлявани от хора?
  • Ако това продължи или продължи, ще се разпростре ли подобно малтретиране в други аспекти на човешките начинания?

Един от отговорите е, че това са само временни реакции към базираните на AI самоуправляващи се коли. Ако обществеността може да бъде убедена, че самоуправляващите се коли работят безопасно по нашите пътища, хвърлянето на камъни и подобни тежки действия почти ще изчезнат (което, между другото, изглежда, че е толкова затихнало). Ако системите за шофиране с изкуствен интелект могат да бъдат подобрени, за да бъдат по-малко пречка по пътищата ни, шофьорите наблизо може да са по-малко склонни да бъдат агресивни към самоуправляващите се автомобили.

Фокусът в цялата тази дискусия е, че малтретирането вероятно поражда малтретиране. Колкото повече малтретирате, като например малтретиране на ИИ, толкова повече това малтретиране става приемливо и предприето, например срещу хора и животни.

Вярвате или не, има и друга страна на тази монета, въпреки че някои гледат на това като на оптимистично щастливо лице по въпроса.

Това е особено оптимистично предложение: Може би правилното лечение поражда правилно лечение.

Ето какво искам да кажа.

Някои експерти предполагат, че тъй като системите за шофиране с изкуствен интелект са програмирани да шофират законно и внимателно, възможно е шофьорите да се поучат от това и да решат да шофират по-разумно. Когато другите коли около вас спазват стриктно ограничението на скоростта, може би и вие ще го спазвате. Когато тези самоуправляващи се автомобили спират напълно на знаците Stop и не се опитват да минат на червено, хората-шофьори ще бъдат по същия начин вдъхновени да шофират внимателно.

Един скептик би намерил тази линия на мислене за тънка или може би дори за блажено ококорена и абсурдно наивна.

Наречете ме оптимист, но ще гласувам за мечтаната идея, че човешките шофьори ще бъдат мотивирани да шофират по-разумно. Разбира се, фактът, че базираните на изкуствен интелект истински самоуправляващи се автомобили ще заснемат на видео и другите си сензори шантавите маневри на други автомобили, управлявани от хора, и биха могли решително да докладват за незаконно шофиране на ченгетата само с натискане на бутон , може да осигури „вдъхновението“, необходимо за по-добро човешко шофиране.

Понякога са необходими и морковът, и тоягата, за да накарате човешкото поведение да се подреди хармонично.

Източник: https://www.forbes.com/sites/lanceeliot/2022/07/30/ai-ethics-confronting-whether-irate-humans-that-violently-smash-or-mistreat-ai-is-alarmingly- неморални-като-тези-разгневени-хора-които-нападат-срещу-напълно-автономни-ai-системи/