Zahav.МненияZahav.ru

Среда
Тель-Авив
+38+26
Иерусалим
+35+26

Мнения

А
А

Искусственный разум: "Мертвая рука" и "Серая слизь"

Ученые уверены: человек опаснее машины. Ведь именно человек на сегодняшний день является виновником наиболее страшных техногенных катастроф.

Влад Гринкевич
30.12.2012
Источник:Голос России
ShutterStock

Читайте также

Одни ученые разрабатывают искусственный разум, другие ищут защиту от него. Например, в Кембридже в 2013 году начнет работу специальный научный центр, одна из задач которого – противодействие опасностям, исходящим от машин с интеллектом.

В свою очередь Пентагон издал директиву, устанавливающую порядок взаимодействия человека и автономных боевых систем. Беспокойство американских военных понятно – США дальше других продвинулись в роботизации своей армии. Всевозможные "беспилотники", роботы-саперы и даже роботы-бойцы – небольшие гусеничные платформы с установленными на них пулеметами или гранатометами – уже существуют. А в СМИ периодически проходят тревожные сообщения вроде: "беспилотный вертолет вышел из-под контроля…"

Все эти летающие, ездящие и стреляющие машины, своего рода радиоуправляемые или программируемые "игрушки", контролирует человек. Военные только мечтают о полностью автономном роботе-бойце, который бы сам принимал решения на поле боя.

"Военная наука столкнулась с одним непреложным фактом: нельзя продумать все алгоритмы, которые надо решать автоматизированному бойцу, которые может решить человек, - пояснил военный эксперт Виктор Баранец. - Я беседовал со многими учеными, и многие говорят, что на 100% она, возможно, никогда решена не будет. Так быстро ориентироваться на поле боя при резко меняющейся обстановке, так быстро принимать решения зачастую может только мозг человека".

Оружие, стратегия, тактика постоянно меняются, разработчики программ не поспевают за валом новых алгоритмов ведения боя. Картина изменится, когда машина научится думать сама. Футуролог, автор книги "Структура глобальной катастрофы" Алексей Турчин считает, что от появления полноценного искусственного разума нас отделяет каких-нибудь 20 лет:

"С какого-то момента искусственный интеллект будет способен к самоапгрейду, То есть будет способен разными способами улучшать себя. Если мы получаем самоусиливающийся искусственный интеллект, возникает проблема его контроля. Как только он начинает самоизменяться, мы перестаем понимать принцип его работы. Возникает вопрос, какие цели мы вначале заложили в него и сохранятся ли эти цели в процессе его самоапгрейда".

Искусственный разум сможет господствовать не только на поле боя, но подчинить себе Интернет или взять под контроль финансовые потоки. Как отмечает Алексей Турчин, уже сегодня электронные трейдеры способны обыгрывать людей на фондовых рынках. А главное, думающая машина сможет не только управлять любыми системами, но и создавать новые. Например, самокопироваться. Роботы делают роботов – вполне успешные эксперименты в этом направлении идут в Британии почти восемь лет.

Но настоящий прорыв в этой области наступит в связи с развитием нанотехнологий. В 80-х годах прошлого века теоретик нанотехнологий Эрик Дрекслер предложил термин "серая слизь" (grey goo). Неуправляемые нанороботы, которые смогут делать себе подобных из всего, что окажется под рукой. Размножаясь в геометрической прогрессии, они в короткий срок поглотят все вещество планеты. Пока это фантастика, но она все больше обретает черты реальности, уверяет Алексей Турчин:

"Все более понятно, каким путем можно сделать нанороботов. Если появятся развитые нанотехнологии, через год это приведет к искусственному интеллекту. И, наоборот, если появится искусственный интеллект, через год он создаст развитые нанотехнологии. На самом деле все произойдет одновременно. Я думаю, что они могут появиться через 10 лет, но пик вероятности – 30-40-е гг."

"Серая слизь" - лишь одна из гипотетических "машин Судного дня", способных по собственному решению уничтожить жизнь на планете. Но только ли гипотетических? В разгар холодной войны медиапространство Запада было взорвано публикациями о появлении в СССР системы "Периметр" - комплекса автоматического нанесения массированного ядерного удара. На случай, если после внезапной атаки отдать приказ об ответном ударе будет некому. На Западе этот комплекс назвали "Мертвая рука". Эксперты до сих пор спорят, был ли он полностью автономным, вроде фантастической "Скайнет" из фильма "Терминатор", или финальное решение все же принимал человек. В любом случае "Мертвая рука" не уничтожила жизнь, а, возможно, помогла ее сохранить.

Некоторые ученые вообще уверены: человек опаснее машины. Ведь именно человек на сегодняшний день является виновником наиболее страшных техногенных катастроф. Так было, например, на японской АЭС "Фукусима", напоминает футуролог, разработчик программы Puntoswitcher Сергей Москалев:

"Произошел конфликт между техникой и человеком. Все приборы говорили о том, что станцию нужно глушить. Но люди стали звонить начальству, начальства не был она месте. Кто-то должен был принять решение об остановке. Остановка – это очень затратное дело в атомной энергетике. Потом заново разгонять реактор это дорого стоит. Как раз компьютер, искусственный интеллект, говорил, что все надо выключать уже, а люди метались…"

Главной причиной чернобыльской катастрофы, кстати, тоже стал человеческий фактор. Сергей Москалев уверен: современные технологии достигли такого высокого уровня, что человек просто не в силах самостоятельно контролировать их. Скорее, он сам становится фактором риска:

"Компьютер в этом смысле выигрывает: он не может запить, расстроиться, обидеться на кого-то и устроить техногенную катастрофу в формате личного суицида, чтобы еще прихватить с собой тех людей, на которых он обиделся. У машины этого нет, и надеюсь, когда будут строить более продвинутые вещи, постараются избежать этого момента", - сказал Мосалёв.

Конечно, если "сойдет с ума" компьютер, имеющий отношение к ядерному оружию, беда будет не меньшей. Но, по словам военных экспертов, если роботизированные системы перестают подчиняться человеку, в них предусмотрена команда "самоликвидация".

Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке