Потребителски вход

Запомни ме | Регистрация
Постинг
07.03.2012 22:54 - Реална ли е опасността от «Робокалипсис»?
Автор: zahariada Категория: Технологии   
Прочетен: 3078 Коментари: 1 Гласове:
5

Последна промяна: 07.03.2012 22:55

Постингът е бил сред най-популярни в категория в Blog.bg Постингът е бил сред най-популярни в Blog.bg
Реална ли е опасността от «Робокалипсис»?

Източник

23.02.2012

image

 


Човешката цивилизация, загиваща в битката с бездушните машини - този популярен и изключително награждаван сценарии във филмова индустрия отдавна се експлоатира успешно.

"Терминатор" и "Матрицата" предсказващи смъртта на нашия вид от изкуствения интелект получи твърде много свобода.

Като се има предвид темпа на технологичното развитие, ако разгледаме сценарий от типа "Robokalipsis", ще изглежда твърде невероятно? Или, обратно, пророчески?

Прогнозите за бъдещето на планетата могат да бъдат диаметрално противоположни. Всичко зависи от това кого ще попитате.

Повечето учени са склонни да мислят, че връзката между човек и машина в бъдеще вероятно ще бъде по-скоро хармонична, отколкото враждебна.

И все пак, вероятността за сценарий, при който небиологични същества ще ни унищожат, все пак си остава.

"Съществуващите технологии напълно могат да изградят система, способна да унищожи цялата Земя, умишлено или неволно," - заяви професорът по компютърни науки, Шломо Зилберщайн от Университета на Масачузетс.

 

Машините в наша услуга

Нека, за начало, разгледаме оптимистичния вариант: машините винаги ще бъдат наши слуги и нищо повече.

"Ние имаме една възможност - да се откажем да създаваме системи, които могат да бъдат опасни, ако излязат извън контрол", - казва Silberstein.

Например, сега вече може да получите автоматична отбранителна система Skynet, която във филма "Терминатор" реши да унищожи цялото човечество.

Защо такава система все още не е построена? Причината е сериозна: ядрените държави, като например Съединените щати няма да искат да прехвърлят на компютъра отговорността за запуска на бойните глави.

"Какво става, ако системата е заразена с вирус? Никой не иска да поеме този риск "

Самостоятолността, в един по-малък мащаб, но все пак, доста сериозен, предоставен днес, е например, хищническите безпилотни самолети, които се използват в Близкия изток.

"Броят на роботизираните системи, които действително могат да бъдат активирани по свое усмотрение, се разраства с всеки ден."

Въпреки това, за безпилотни летателни апарати, зорко следят операторите, както и последната дума - да се нанесе удар или не - е все още тяхна.

Така че ние сме все още далеч от Skynet, който в "Терминатор" контролира целия ядрен арсенал на Америка.

В "Терминатор", военните създават програма, с цел да елиминират риска от човешка грешка или недостатъчно бърза реакция при атаки срещу Съединените щати.

Когато хората-оператори най-накрая осъзнаят, че истинската опасност идва от всемогъщата Skynet, те се опитват да спрат системата. Тя, от своя страна, интерпретира намесата като заплаха за своето съществуване, нанася удар по Русия, провокирайки ответен удар. Милиарди хора умират, а Skynet организира изграждането на фабрики за производство на армия от роботи, за да се отърве от останките на човешката раса.

В реалния свят, според Silberstein, прости мерки за безопасност ще предотвратят възникването на заплаха за хората, във всеки случай, ако заплахата не е предоставена от разработчиците - ако те са охрана на границата, например.

Освен това, способността да се взимат мащабни стратегически решения не трябва да се залагат в никоя от системите.

"Роботите на бъдещето ще имат специфични особености. Те ще бъдат в състояние да следят ситуацията в региона и дори може би да се намесват, нанасяйки удари, но напълно да заменят човека - в никакъв случай "

 

Роботите излизат от контрол

Един колега на Зилберщайн от университета на Калифорния, Майкъл Дайър не споделя такъв оптимизъм. Той вярва, че "машината неминуемо ще замени напълно хората", а процеса не е задължително да е мирен.

Успехите на науката в областта на създаване на изкуствения интелект ще доведе до появата на машини, които няма да ни отстъпват по  "съобразителност и интелигентност", след няколко стотин години, прогнозира Дайър.

"Ние сме достигнали ниво, когато сме научили да разбираме начина, по който работят нашите мозъци, и е близо денят, когато ние ще създадем синтетична версия на самите себе си." Кой не би искал да получи вечност в практически изкуствена обвивка?

Перспективата за безсмъртието е твърде съблазнителна, за да се откажем от нея доброволно.

Един такъв преход от биологичен към технологичен свят изглежда доста гладък.

Много по-малко атрактивен е друг възможен сценарий, "Бунтът на машините".

Дайър предполага, че новата надпревара за роботизирано въоръжение, може да бъде катастрофална. Както и Skynet, изобретението може да се обърне срещу своя създател.

Или привидно безвредна ситуация: Завод за производство на роботи престава да се подчинява на човешките команди. Ръководството решава да го изключи от захранването. "Но, за съжаление, електростанцията, също е контролирана от роботи, и те също отказват да се подчинят. Хората се опитват да спрат камионите, които доставят, необходимите материали. Но шофьорите на камиони също са роботи - и отново не се получава "

Не е толкова невероятно, че изкуствения интелект, с помощта на интернет ще може да лишава човека от господстващото си положение, ако обществото е твърде зависимо от автоматизираните системи.

Като цяло, малко мъдрост ще попречи на човешката раса да падне в капаните, режисирани от холивудските сценаристи. Но добрата печалба е сериозен мотив, който кара компаниите да автоматизират все повече и повече, и опитът показва, че рационалните решения не винаги побеждават.

"върде много сценарии за развитие на събитията, може да доведе до "Денят на Страшния съд ". И аз не изключвам възможността те да възникнат, - казва Silberstein. - Въпреки че аз лично не съм много притеснен".

Още гледни точки по темата:

За да избегне собствената си гибел е необходимо човечеството да постави изкуствения интелект под ключ

Източник

1.03.2012

image

Изкуственият интелект е толкова опасен, че трябва да го заключим, далеч от греха, казват експерти. Във всеки случай,  не е необходимо да се предоставя свобода на суперкомпютъра HAL 9000 от  "Космическа одисея 2001"

Суперумните компютри или роботи, които застрашават оцеляването на човешката раса е любим сюжет на научната фантастика. В действителност, според учени подобен сценарий може да бъде избегнат само чрез създаването на виртуален "затвор" за съхраняването на изкуствения интелект (AI). И това трябва да се направи, преди той да се научи да осъзнава и да се самоусъвършенства.

Ако изпуснем този дух от бутилката, той от оракул, който решава нашите проблеми, може да се превърне в една апокалиптична заплаха, - казва Роман Ямполски, учен от Университета на Луисвил (щ. Кентъки), работещ в областта на компютърните науки. Ние трябва внимателно да планираме условията, при които ще се съхранява AI(И.И -изкуственият интелект) така че той да не може да се освободи с помощта на заплахи, подкупи, прелъстяваня или компютърно хакерство.

"Той може да изобрети много начини да повлияе като превърне сложна социоинженерна комбинация и да използва вече съществуващите хардуерни компоненти за цели, които ние не можем дори да си представим - казва Ямполски. - Такъв софтуер притежава неограничен потенциал за заразяване на компютри и мрежи. AI може да намери начини да повлияе върху човешката психика, да подкупва или изнудва хората, които са в контакт с него. "

Появата на нови сфери на научни изследвания, занимаващи се с проблема за създаване на "затвор" за изкуствения интелект, имат и допълнителни ползи. Тези изследвания са много полезни за подобряване на компютърната сигурност и криптографията, уверен е Ямполско. Неговите предложения бяха подробно описани в мартенския брой на академичното издание 
Journal of Consciousness Studies.

image

Роботът-убиец от филма "Терминатор" се явява в такова бъдеще, каквото ние бихме
искали да избегнем

 

Как да организираме капан за Skynet

За начало, можете да заключите Изкуственият интелект във "виртуалната машина". Нека той работи в рамките на нормална операционна система - ограничаване на достъпа до AI софтуер и хардуерно оборудване, ще го направи много по-безвреден. Във всеки случай, умният AI няма да може да изпраща на своите поддръжници-хора тайни съобщения, отбивайки охлаждащите вентилатори, побеждавайки Морзовата азбука.

Настанете изкуствения интелект в компютър без връзка с Интернет - добър начин да се попречи на коварните планове на AI да защитава Земята от нас с вас. В случай на отказ, изследователите винаги могат да забавят процеса на мисълта на AI, забавяйки скоростта на обработка на данните в компютъра, като регулярно натискате на "презареждане" или изключите AI от захранването.

Тези мерки за сигурност са предназначени да се справяте с особено умен и опасен компютърен вирус, но колко ефективни те ще се окажат в действителност - можем само да гадаем.

"Catch-22" (роман от американския писател Джоузеф Хелър), се крие във факта, че не можем да провеждаме мащабни тестове на нашите идеи, докато развитието на ИИ не е завършено. Но, за да направи AI безопасен, е необходимо да се разработи набор от подходящи мерки - казва Ямполски. - Най-добрият вариант -е да се налагат ограничения върху използването на AI системи, а след това, при необходимост, да се променят тези граници, в съответствие с нарастващия потенциал на AI ".

image

Ученият Роман Ямполски предложил да се използва знака "@" или други знаци, използвани днес за обозначение на радиационни или биологически заплахи, за указване на наличие на опасност, свързана с изкуствения интелект.

 

Никога не оставяйте машината да се охранява от човек

По време на една невинна, на пръв поглед, беседа с пазача AI нищо не може да предотврати използването на психологически техники, като приятелство, или шантаж. Човекът може да бъде подкупен, обещавайки му перфектно здраве, безсмъртие, или дори обещание да си върне мъртвите роднини и приятели. Или да получи всякакви заплахи.

Най-безопасният начин да общувате с AI е да го принудите, при решаване на специфични научни или технически задачи, да избира отговор от множество налични варианти - казва Ямполски. Това ще ви помогне да държите супер-интелигентния Oracle на къса каишка.

Много изследователи смятат, че въпреки всички предпазни мерки, да се държи под ключ умния AI не може да бъде безкрайно. Последният експеримент на Елиезер Юдковски, изследовател в Института за сингулярност по създаване на изкуствен интелект е показал, че дори интелект на човешко ниво, може да бъде измамен и да "ибяга" от затвора.

Независимо от това, Ямполски настоява за съхраняването на AI в строга изолация - това все още е по-добре, отколкото да му се даде пълна свобода. Но, ако развитието на изкуствения интелект, достигне точката, от която той може да манипулира човека, използвайки подсъзнанието му (предсказване на бъдещето), телепатия или телекинеза - последствията ще бъдат непредсказуеми.

"Ако AI се самоусъвършенства и достигне ниво, значително надвишаващо възможностите на човешкия интелект, последствията не можем дори да си ги представим" - предупреждава Ямполски.

 



 



Гласувай:
5
0



Спечели и ти от своя блог!
1. анонимен - Планът Ран,
11.03.2012 11:59
това и цели да замени хората с машини, няма да гласуват, освен смазочно масло и ЗИП, да и захранване друго не искат, не чувстват, не протестират, ако пък се самообучават и разработват софтуер е върхът за олигархията и точно това ще я убие/ ако въобще се стигне до там/. Ето ви и един великолепен сценарии/ идея/.
цитирай
Търсене

За този блог
Автор: zahariada
Категория: Политика
Прочетен: 27417295
Постинги: 15554
Коментари: 19017
Гласове: 25722
Архив
Календар
«  Юни, 2020  
ПВСЧПСН
1234567
891011121314
15161718192021
22232425262728
2930