Zahav.МненияZahav.ru

Вторник
Тель-Авив
+31+23
Иерусалим
+30+20

Мнения

А
А

Нет кнопки "отключить вранье"

Искусственный интеллект на службе зла: технологии бессильны, спасти может только просвещение.

Антон Меркуров
26.06.2024
Источник:Новая газета
Фото: ShutterStock

Новые технологии выводят на следующий уровень все: и хорошее, и плохое. С первым вроде разобрались, переходим ко второй части. Спасибо нейросетям и искусственному интеллекту - сгенерированный мир все чаще неотличим от реального. И эти достижения, которые прямо сейчас совершенствуются в реальном времени, увы, доставляют не только радость и пользу, но и, мягко говоря, неудобства.

Самый очевидный пример: пранки. Уже много знаменитостей дали интервью ненастоящим журналистам. Но это - на фоне остального - достаточно безобидная вишенка на торте. Реальные мошенники действуют жестоко.

Звонит телефон, высвечивается номер близкого родственника и его голос, а то и лицо, сообщает о проблеме и просит перевести деньги. Это вам не майор из Сбербанка. Учитывая, с каким качеством сегодня происходит генерация голоса и изображения, поверить несложно. А с поправкой на внешние обстоятельства - логичный шаг. Мало ли что.

И такое может провернуть каждый. Без особых технических навыков, тут скорее важно знание социальной инженерии и человеческих слабостей.

Подписывайтесь на наш телеграм-канал: zahav.ru - события в Израиле и мире

Все это виртуальное жульничество - верхняя часть айсберга. Обман и мошенничество привлекают внимание. А есть просто какая-то жизнь. Про нее мало что слышно - это персональный быт человека. Тут новости почитал, тут кино посмотрел, тут с друзьями пообщался, тут в игрушку поиграл. На этот быт часто хотят влиять разные группы интересантов - либо с чисто коммерческими интересами, создание нужного мнения или подсовывания конкретных продуктов, либо с политическими - где в массе своей уже не стоит задача навязать конкретное мнение. Надо просто запутать.

Тема фейков или просто недостоверной информации появилась не сегодня. Раньше фактчекинг или выяснение, кто прав, требовало времени, литературы, экспертов, которых еще найти надо. И фейки жили не днями и часами, как сегодня, а годами. В особо удачные вбросы, типа Плана Даллеса, многие верят до сих пор.

И казалось, что появление интернета должно положить конец кухонным спорам: правильный ответ можно найти за секунды. Но и тут возникла проблема.

Если мы поищем что-нибудь известное, хорошо изученное и так же описанное, то поисковая выдача и ответ нейросети будут бесспорными, взвешенными и достоверными, с подтверждением из разных источников и дополненные авторитетными мнениями. Но если вопрос текущий или изначально основанный на неграмотности вопрошающего или каких-то общих заблуждениях - для получения правильного ответа или составления объективного мнения придется включать голову.

Человек ленив и неграмотен - проблему переложили на платформы, которые начали размечать информацию. Появились целые отделы и сервисы, занятые проверкой и разметкой информации. На каждом углу примечания: возможно, фейк, вам это переслали, - относитесь с осторожностью и так далее. Большая часть этих нововведений - не инициатива сервисов, а требования региональных законодательств: мол, защита пользователей не только в техническом, но и в духовном смысле - ваша прямая обязанность. Теперь перед ними стоит новая задача: определить, создавал контент человек или нейросеть, и качество последних уже такое, что это становится все сложнее. Тем более игроков, желающих поправить в свою пользу виртуальную среду, становится все больше.

В целом поисковая выдача по обычному запросу и средняя статья в Wikipedia достоверны, но если посмотреть на общественно-политический контент, сервисы испытывают гигантское давление. Тут и государства, и частные компании. И все хотят взломать алгоритм в свою пользу.

И вот ChatGPT, где отдельно указано, что нейросеть может ошибаться, с одной стороны, все умнеет, с другой - нет-нет да и сморозит какую-то фигню. И часто - не по доброй воле. Если раньше задача фабрики троллей была писать публичные комментарии в пользу заказчика, то теперь толпы набрасываются на нейросеть, пытаясь навязать ей свое мнение либо использовать ее как инструмент пропаганды.

Тут тоже есть бонус. ИИ не уволится внезапно и не пойдет в СМИ рассказывать, как писал гадости за небольшие деньги. Нейросеть может сама вести аккаунт и спорить в интернете.

Правда, бывают и ошибки: забыли оплатить аккаунт - искусственный интеллект тут же уведомляет об этом публично, раскрывая свою виртуальную сущность.

Генерально - главная проблема не в технологиях, а в людях. Конечно, и на старуху бывает проруха: да будь вы хоть трижды осознанным специалистом, шанс попасть на крючок есть всегда. Но так или иначе главный рецепт - будьте богатыми и здоровыми. Уровень образования и доходов, безусловно, влияет на критическое мышление, и шансы нарваться - на порядок меньше.

Это можно заметить по рекламе в интернете: в странах первого мира можно легко нарваться на "нигерийское письмо" или какую-то фейковую информацию общественно-политического характера. Идут либо по дну, ориентируясь на бедные слои населения, либо по верхам, пытаясь влиять на повестку. Средний класс, со всеми его социальными прелестями, в какой-то степени сам себя обезопасил. А там, где с экономикой похуже - развод и обман на каждом шагу.

Бедного и глупого обмануть проще. А если и с политической системой не очень - то все, гуляй рванина. Виртуальное пространство Глобального Юга выглядит как помойка, откуда местами высовываются приличные небоскребы. И последствия этого - не только вредный мусор в виртуальном пространстве, но и постоянное вбрасывание идеи, что правды не существует.

Единичные ошибки СМИ транслируются - и стремительно - на всю отрасль: "газетам верить нельзя". Wikipedia - "ну там же любой может написать, так что - не доказательство". "А этих экспертов просто проплатили. И вообще, отстаньте от меня со своей правдой. Я ничего не хочу решать, я хочу на ручки".

И это желание можно понять - критическое мышление требует больших усилий. Не только потому, что посмотреть с разных сторон на вопрос и подумать - нужно время, но и потому, что выводы могут не понравиться. А весь нарратив пропаганды - там враги, они виноваты, тут вообще ничего не понятно и сплошной заговор. Не думай. Не решай.

Но надо же что-то делать. И технологические нововведения, изменение законодательств, разнообразные пометки, объясняющие пользователю, что информация сомнительна, - все это уже сегодня имплементируется в жизнь. Но судя по тому, что поток обмана, дичи и манипуляций и не думает прекращаться, - помогает не очень.

Читайте также

Ответ прост: как пример - вы, дорогие чиновники, можете принять хоть сто законов, запрещающих подмену телефонного номера. Но принципиально ограничить эту функцию просто невозможно - это часть протокола. Как попытка законодательно запретить плохую погоду. Это первая ошибка. Вторая более глобальна: как уже упоминалось ранее, ИИ - бездушная машина. Ей в целом все равно. Сражение идет между людьми и группами интересов. И проблема именно там.

Решение есть, но оно звучит банально: просвещение и нормальная жизнь. Чем выше уровень образования, чем меньше вокруг бытового и политического треша, тем больше у людей возможностей жить чуть более осознанно. Не вестись, не впитывать, думать, анализировать, принимать взвешенные решения. Звучит утопично, но подтверждается фактами: все эти проблемы с манипуляцией касаются тех мест, где жить не очень хорошо. В развитых обществах этих проблем меньше. Развитие горизонтальных связей, нормальные отношения с близкими - чтобы в случае чего, не нести деньги мошенникам, а перепроверить. Просто друзья вокруг, которые в нужный момент смогут помочь или подсказать.

Каждый раз, размышляя о прогрессе и технологиях, хочется поверить в какое-нибудь электронно-виртуальное чудо, которое нас спасет от всех проблем. И да, все эти достижения делают мир сложнее и проще одновременно, но главная проблема все равно в нас. В людях. Потому что и обманываются, и обманывают именно они.

Комментарии, содержащие оскорбления и человеконенавистнические высказывания, будут удаляться.

Пожалуйста, обсуждайте статьи, а не их авторов.

Статьи можно также обсудить в Фейсбуке