Потребителски вход

Запомни ме | Регистрация
Постинг
22.05 13:49 - „Deadbots“ могат да говорят вместо вас след смъртта ви. Това етично ли е?
Автор: zahariada Категория: Хоби   
Прочетен: 272 Коментари: 1 Гласове:
3

Последна промяна: 22.05 13:50


„Deadbots“ могат да говорят вместо вас след смъртта ви. Това етично ли е?

Публикувано: 9 май 2022 г., 19:33 ч. BST  

image


 Системите за машинно обучение все повече проникват в ежедневието ни, предизвиквайки моралните и социални ценности и правилата, които ги управляват. Тези дни виртуалните асистенти застрашават поверителността на дома; препоръчителите на новини оформят начина, по който разбираме света; системите за прогнозиране на риска подсказват социалните работници кои деца да защитават от злоупотреба; докато инструментите за наемане, управлявани от данни, също класират шансовете ви за намиране на работа. Въпреки това, етиката на машинното обучение остава неясна за мнозина. Търсейки статии по темата за младите инженери, посещаващи курса по етика и информационни и комуникационни технологии в UCLouvain, Белгия, бях особено поразен от случая с Джошуа Барбо , 33-годишен мъж, който използва уебсайт, наречен Project December , за да създаде разговорен робот - чатбот - който ще симулира разговор с починалата му годеница Джесика.

 

Разговорни роботи, имитиращи мъртви хора Известен като deadbot , този тип чатбот позволява на Barbeau да обменя текстови съобщения с изкуствена „Джесика“. Въпреки етически противоречивия характер на случая, рядко намирах материали, които надхвърлят обикновения фактически аспект и анализират случая през изрична нормативна леща: защо би било правилно или неправилно, етично желателно или осъдително да се разработи мъртъв бот?

 

Преди да се заемем с тези въпроси, нека поставим нещата в контекст: Project December е създаден от разработчика на игри Джейсън Рорър, за да даде възможност на хората да персонализират чатботове с личността, с която искат да взаимодействат, при условие че са платили за това. Проектът е изграден въз основа на API на GPT-3 , езиков модел за генериране на текст от изследователската компания за изкуствен интелект OpenAI. Случаят на Barbeau отвори разрив между Rohrer и OpenAI, тъй като насоките на компанията изрично забраняват GPT-3 да се използва за сексуални, любовни, самонаранявания или тормоз.

 

Наричайки позицията на OpenAI като хиперморалистична и твърдейки, че хора като Barbeau са „съгласни възрастни“, Rohrer закри GPT-3 версията на Project December.

 

Макар че всички може да имаме интуиция за това дали е правилно или грешно да се разработи мъртъв бот с машинно обучение, изясняването на неговите последици едва ли е лесна задача. Ето защо е важно да разгледаме етичните въпроси, повдигнати от случая, стъпка по стъпка.

 

Достатъчно ли е съгласието на Barbeau, за да разработи мъртвия бот на Джесика? Тъй като Джесика беше истински (макар и мъртъв) човек, съгласието на Барбо за създаването на мъртъв бот, който я имитира, изглежда недостатъчно. Дори когато умрат, хората не са просто неща, с които другите могат да правят каквото си искат. Ето защо нашите общества смятат, че е погрешно да се осквернява или да бъде неуважение към паметта на мъртвите. С други думи, ние имаме определени морални задължения към мъртвите, доколкото смъртта не означава непременно, че хората престават да съществуват по морално релевантен начин .

 

По същия начин е открит дебатът дали трябва да защитаваме основните права на мъртвите (напр. поверителност и лични данни ). Разработването на мъртъв бот, възпроизвеждащ нечия личност, изисква големи количества лична информация, като данни от социалните мрежи (вижте какво предлагат Microsoft или Eternime ), които доказано разкриват силно чувствителни черти .

 

Ако сме съгласни, че е неетично да се използват данните на хората без тяхното съгласие, докато са живи, защо трябва да е етично да се прави това след смъртта им? В този смисъл при разработването на deadbot изглежда разумно да се поиска съгласието на този, чиято личност е огледална – в този случай Джесика.

 

Смъртта ни разделя от близките, но може ли машинното обучение да ги върне към дигиталния живот? Филип Лорес / AFP Когато имитираният човек даде зелена светлина И така, вторият въпрос е: дали съгласието на Джесика ще бъде достатъчно, за да се счита създаването на нейния мъртбот за етично? Ами ако това беше унизително за нейната памет?

 

Границите на съгласието наистина са спорен въпрос. Вземете като парадигматичен пример „Ротенбургския канибал“ , който беше осъден на доживотен затвор, въпреки факта, че жертвата му се съгласи да бъде изядена. В тази връзка се твърди, че е неетично да се съгласяваме с неща, които могат да бъдат вредни за нас самите, било то физически (да продаваме собствените си жизненоважни органи) или абстрактно (да отчуждаваме собствените си права).

 

В какво конкретно отношение нещо може да бъде пагубно за мъртвите е особено сложен въпрос, който няма да анализирам изцяло. Струва си да се отбележи обаче, че дори ако мъртвите не могат да бъдат наранени или обидени по същия начин като живите, това не означава, че те са неуязвими за лоши действия, нито че те са етични. Мъртвите могат да понесат вреди на своята чест, репутация или достойнство (например посмъртни клеветнически кампании), а неуважението към мъртвите също вреди на близките им. Освен това, лошото отношение към мъртвите ни води до общество, което е по-несправедливо и по-малко уважаващо достойнството на хората като цяло.

 

И накрая, като се има предвид гъвкавостта и непредсказуемостта на системите за машинно обучение, съществува риск съгласието, предоставено от имитираното лице (приживе), да не означава много повече от празна проверка на потенциалните му пътища.

 

Като се има предвид всичко това, изглежда разумно да се заключи, че ако разработката или използването на deadbot не съответства на това, с което имитираното лице се е съгласило, тяхното съгласие трябва да се счита за невалидно. Освен това, ако това явно и умишлено накърнява тяхното достойнство, дори тяхното съгласие не трябва да е достатъчно, за да го счита за етично.

 

Кой поема отговорност? Трети въпрос е дали системите с изкуствен интелект трябва да се стремят да имитират какъвто и да е вид човешко поведение (независимо дали това е възможно).

 

Това е дългогодишна грижа в областта на AI и е тясно свързана със спора между Rohrer и OpenAI. Трябва ли да разработим изкуствени системи, способни например да се грижат за другите или да вземат политически решения? Изглежда, че има нещо в тези умения, което прави хората различни от другите животни и от машините. Следователно е важно да се отбележи, че инструментализирането на AI към техно-решаващи цели, като например замяната на близки, може да доведе до девалвация на това, което ни характеризира като човешки същества.

 

Четвъртият етичен въпрос е кой носи отговорност за резултатите от мъртвия бот – особено в случай на вредни ефекти.

 

Представете си, че мъртвият бот на Джесика самостоятелно се е научил да действа по начин, който унижава паметта й или необратимо уврежда психичното здраве на Барбо . Кой би поел отговорност? Експертите по ИИ отговарят на този хлъзгав въпрос чрез два основни подхода: първо, отговорността пада върху онези , които участват в проектирането и разработването на системата , стига да го правят според техните специфични интереси и мироглед; второ, системите за машинно обучение са зависими от контекста, така че моралните отговорности на техните резултати трябва да бъдат разпределени между всички агенти, взаимодействащи с тях.

 

Поставям се по-близо до първата позиция. В този случай, тъй като има изрично съвместно създаване на deadbot, което включва OpenAI, Jason Rohrer и Joshua Barbeau, считам за логично да се анализира нивото на отговорност на всяка страна.

 

Първо, би било трудно да се направи OpenAI отговорен, след като изрично забрани използването на своята система за сексуални, любовни, самонаранявания или тормоз.

 

Изглежда разумно да се припише значително ниво на морална отговорност на Rohrer, защото той: (а) изрично проектира системата, която направи възможно създаването на мъртвия бот; б) направи го, без да предвижда мерки за избягване на потенциални неблагоприятни резултати; (в) е наясно, че не спазва насоките на OpenAI; и (г) печели от това.

 

И тъй като Барбо е персонализирал мъртвия бот, базирайки се на определени черти на Джесика, изглежда законно да го държим на съотговорност, в случай че това влоши паметта й.

 

Етично, при определени условия И така, връщайки се към първия ни общ въпрос дали е етично да се разработва мъртъв бот с машинно обучение, бихме могли да дадем утвърдителен отговор при условие, че:

 

както лицето, което имитира, така и този, който персонализира и взаимодейства с него, са дали своето свободно съгласие за възможно най-подробно описание на дизайна, разработката и използването на системата;

 

забранени са разработки и употреби, които не се придържат към това, с което имитираното лице се е съгласило или които противоречат на неговото достойнство;

 

хората, участващи в неговото развитие и тези, които печелят от него, поемат отговорност за потенциалните му отрицателни резултати. Както със задна дата, за отчитане на случилите се събития, така и в перспектива, за активно предотвратяване на случването им в бъдеще.

 

Този случай илюстрира защо етиката на машинното обучение има значение. Той също така илюстрира защо е важно да се започне публичен дебат, който може да информира по-добре гражданите и да ни помогне да разработим политически мерки, за да направим системите за изкуствен интелект по-отворени, социално справедливи и в съответствие с основните права.

 




Гласувай:
3



Спечели и ти от своя блог!
1. jupel - https://www.youtube.com/watch?v=5Mk5sf7Szgs
22.05 16:05
ПЛЕВЕН
цитирай
Търсене

За този блог
Автор: zahariada
Категория: Политика
Прочетен: 33522574
Постинги: 20483
Коментари: 21140
Гласове: 29073
Архив
Календар
«  Юли, 2022  
ПВСЧПСН
123
45678910
11121314151617
18192021222324
25262728293031