Орудие или оружие: почему нейросети уже не остановить и чем это грозит человечеству

13.04.2023, 18:15

Фото: Alina Grubnyak / unsplash.com

Стремительное развитие нейросетей остановить уже невозможно. Но и бояться этого не надо, говорят российские исследователи. В ближайшее время искусственный интеллект вряд ли обретет самосознание, поэтому ни тотальная безработица, ни восстание машин человечеству не грозят.

Кому мешают нейросети?

Глава Tesla, SpaceX и Twitter Илон Маск, сооснователь Apple Стив Возняк и еще тысячи экспертов и руководителей компаний в сфере искусственного интеллекта подписали письмо с призывом остановить разработку и обучение нейросетей. Запрет, по их мнению, нужно ввести хотя бы на ближайшие полгода, пока не появятся общие протоколы безопасности. В противном случае машины могут «наводнить информационные каналы пропагандой, автоматизировать рабочие места» и даже заменить человека.

Особый акцент в обращении сделан на необходимости прекратить тренировки систем мощнее GPT-4 — четверной версии нейронной языковой модели от компании Open-AI. GPT — это «трансформеры», способные обучаться на больших наборах данных, чтобы генерировать текст, схожий с человеческим. Такова была по крайней мере первоначальная цель. Сейчас более свежие версии, включая четвертую и Chat-GPT (чат-бот с искусственным интеллектом), могут выполнять самые разные и довольно сложные задачи. Так, в России с помощью ChatGPT студент РГГУ написал диплом и успешно защитил его на «тройку».

Чем опасны нейросети?

Сами по себе нейросети с их текущим уровнем развития безопасны для человека, считают опрошенные НТВ эксперты. По мнению профессора кафедры ИУ10 «Защита информации» МГТУ им. Н. Э. Баумана Сергея Смирнова, опасность может представлять только способ применения нейросети (языковой модели).

Сергей Смирнов: «Я сомневаюсь, что нейросеть может вести себя не так, как задумано. Но я уверен, что исходную „задумку“ злоумышленник может существенно изменить».

Реальная угроза от нейросетей заключается в том, что недоброжелатели могут насыщать электронные источники информации фейками, уточнил исследователь.

«Информационный мусор» может быть не только в виде искаженных текстов, но и в формате фото-, видео- и аудиозаписей, замечает, в свою очередь, директор Центра прикладного искусственного интеллекта «Сколтеха» Евгений Бурнаев. Нейросеть также могут неправильно научить распознавать лица, что грозит неправомерными задержаниями невинных людей. А в руках аферистов искусственный интеллект рискует стать инструментом шантажа, вымогательств и краж данных.

Эксперт выделил несколько возможных форм кибератак с применением нейросетей:

— фишинг (создание фальшивых электронных писем, например якобы от банков);
— взлом паролей (перебор всех возможных комбинаций паролей или создание поддельных отпечатков пальцев);
— кардинг (создание фальшивых кредиток);
— взлом систем безопасности (генерация вредоносного кода, способного обойти системы безопасности, а также создание ботнетов для запуска DDoS-атак);
— социальная инженерия (создание фальшивых профилей в соцсетях с целью обмана людей и получения доступа к их личной информации).

Однако орудием или оружием нейросети становятся только в руках человека, обращает внимание исследователь команды проекта разговорного искусственного интеллекта DeepPavlov.ai МФТИ Денис Кузнецов. Нейросети, как подчеркнул эксперт, не обладают самосознанием, чтобы действовать «сколько-нибудь самостоятельно».

Денис Кузнецов: «Они в принципе не могут отрастить ноги и убежать в интернет. Их могут перенести в интернет люди, чтобы они там работали при тех же условиях получения последовательности данных и выдачи последовательности данных. Поэтому текущее поколение нейронных сетей может работать только как инструменты».

При этом нейросети могут вести себя не так, как задумано, и стать причиной настоящей трагедии. Так, в Бельгии мужчина покончил с собой после двух месяцев общения с чат-ботом по имени Элиза на основе открытой языковой модели GPT-J. Эта история показывает, что для пользования нейросетями нужно определенное понимание принципов их работы, говорит Денис Кузнецов. Общество, по его словам, еще не привыкло к таким инструментам.

На непредсказуемость результатов работы с нейросетями обратил внимание и руководитель образовательной программы «Киберфизические системы» (кафедра «СМАРТ-технологии» Московского политеха) Тимур Идиатуллов. Он считает, что пока нейронным сетям нельзя доверять решение важных задач, поскольку современные языковые модели запредельно сложны с точки зрения числа параметров.

Тимур Идиатуллов: «Например, сеть ChatGPT содержит 175 миллиардов параметров, которые определяют ее работу, и не существует инструмента, который позволил бы нам отследить, как сеть пришла к тому или иному решению».

Могут ли нейросети оставить людей без работы?

В этом вопросе среди экспертов нет единого мнения. Сергей Смирнов полагает, что от моделей уровня GPT-4 пострадают только распространители фейков. А те, кто реально занят созданием чего-то нового, получат хороший инструмент для проверки идей и проведения расчетов на доступном сервере. Нейросетям во многих случаях нужен человек-контроллер, отметил специалист.

По мнению Евгения Бурнаева, на нейросети можно переложить ряд обязанностей сотрудников производственной сферы, включая распознавание образов, классификацию данных и выявление сбоев в работе оборудования. Но человеческий интеллект, креативность и способность адаптироваться к новым ситуациям они пока заменить не могут.

Евгений Бурнаев: «Что касается потери рабочих мест из-за нейросетей и других технологий автоматизации, то она неминуема, но одновременно создаются новые рабочие места, связанные с разработкой, установкой, техподдержкой и программированием всех этих систем. Кроме того, автоматизируя производственные процессы, компании расширяются и создают новые рабочие места как у себя, так и в смежных отраслях».

Нейросетям пока можно доверить творческие решения, качество которых не критично, заметил, в свою очередь, Денис Кузнецов. Остальное, по его словам, по-прежнему на себя будет брать человек, чтобы как минимум проверять работу искусственного интеллекта.

Тимур Идиатуллов пояснил, что людей сейчас не удается заместить нейросетями, поскольку часто требуется принятие решений, выходящих за рамки простой обработки заявок. Но развитие нейросетевых технологий приведет к смене целого класса профессий, как это произошло, когда появились конвейеры, мануфактуры, станки и компьютеры.

Тимур Идиатуллов: «Вероятно, что люди будут вытесняться из некоторых профессий сервисной сферы и торговли в профессии, где требуется больше физической работы, но автоматизация (роботизация) в которых затруднена. И, конечно, функции общего контроля и обслуживания оборудования тоже останутся за человеком».

Приведет ли развитие нейросетей к восстанию машин?

Это фантастический сценарий, успокаивают собеседники НТВ. Нейросети не обладают сознанием и намерениями, пояснил Евгений Бурнаев. Важно только, чтобы искусственный интеллект не использовался самими людьми в радикальных целях.

Сергей Смирнов называет восстание машин страшилкой для малообразованных людей. Опасность, по словам эксперта, представляют успешные работы исследователей, у которых нет моральных ограничений. Нейросети — это электронная начинка оружия будущего, полагает специалист. Они могут быть применены в системах летального оружия, автоматизированном производстве фейков, масштабных атаках соцсетей и т. п.

Если даже произойдет что-то, что напоминает восстание машин, это будет локальной ситуацией, говорит Денис Кузнецов. Глобальный бунт искусственного интеллекта маловероятен.

Денис Кузнецов: «Восстание машин на нас может повлиять так же, как и восстание куриц на курином комбинате. Возможно, с 1–2 особями что-то не так из-за вируса. Возможно, что-то не так с целой группой кур. От этого максимум один комбинат из тысяч может сбавить временно темпы производства птиц и яиц. В самом печальном случае мы лишимся всех куриц из-за куриной пандемии. Но в нашем случае у нас очень много замен».

Тимур Идиатуллов также считает, что в ближайшее время машины вряд ли обретут самосознание, поэтому восстания ждать не стоит.

Надо ли остановить обучение нейросетей?

Нет, идти по такому пути не нужно и даже невозможно, уверены опрошенные эксперты. Денис Кузнецов называет призыв Илона Маска и других экспертов прекратить обучение нейросетей «мораторием на ИИ», а также попыткой замедлить развитие компаний — лидеров этой сферы.

Остановить нейросети уже невозможно, продолжает Тимур Идиатуллов. Нужно, по его словам, не прекращать их обучение, а развивать инструменты, позволяющие понимать, как искусственный интеллект принимает то или иное решение.

Евгений Бурнаев также призвал не ограничивать обучение нейронных сетей. Эксперт при этом выступает за создание эффективных механизмов регулирования использования ИИ, чтобы в том числе применять его для защиты от кибератак и киберпреступлений.

Призыв Маска и группы специалистов выглядит неубедительно, обращает внимание Сергей Смирнов. В частности, смущает пункт о приостановке обучения ИИ до появления протоколов безопасности. «Но кто будет писать эти протоколы и будут ли они соблюдаться — большой вопрос», — заключил Смирнов.

Читайте также