«Матрица Терминатора». Стоит ли нам бояться искусственного интеллекта?

Однозначного ответа на этот вопрос на самом деле нет. Эксперты, политики и обыватели разделились сейчас на примерно равные группы «оптимистов» и «алармистов».

Сгенерированные нейросетью образы российских городов. . Фото: Коллаж СамолётЪ

Опрос аналитического центра НАФИ показал ожидания весьма оптимистичные ожидания россиян от внедрения искусственного интеллекта в различных сферах.

Опасности нет

Так считают опрошенные НАФИ россияне. Которые чаще всего ожидают внедрения технологий‌ искусственного интеллекта (ИИ) в сферах безопасности (31%), здравоохранения (29%) и освоения космоса (25%). Такие выводы содержатся в социологическом исследовании «Отношение к технологиям искусственного интеллекта», развитию которых способствует федеральный проект «Искусственный интеллект» национального проекта «Цифровая экономика». Опрос 1600 россиян старше 18 лет проведен аналитическим центром НАФИ совместно с АНО «Национальные приоритеты».

Согласно результатам опроса НАФИ, в своей повседневной жизни наиболее часто респонденты сталкивались с технологиями ИИ в сферах онлайн покупок (52%) и финансовых услуг (40%). В большинстве случаев опрошенные используют навигаторы, умные медиа-рекомендации, онлайн-переводчики и голосовые помощники с ИИ. Меньше всего — в области генеративного ИИ, беспилотных доставок и транспорта.

Большинство респондентов (82%) согласны с тем, что ИИ сегодня важен для развития самых разных сфер. 78% опрошенных считают, что технологии ИИ приносят людям пользу, 73% отмечают, что они необходимы обществу, 63% — говорят об отсутствии опасности.

Опасность есть

В мае группа экспертов по нейросетям подписала открытое письмо, предупреждающее о риске вымирания человечества из-за ИИ. О сути их опасений рассказал The Economist. Они сводятся к одному предложению, в котором говорится следующее: «Снижение риска вымирания в результате использования искусственного интеллекта должно стать первоочередным делом наряду с другими опасностями общечеловеческого масштаба, такими как пандемии и ядерная война».

10 июля группа исследователей, среди которых был Эзра Каргер, экономист Федерального резервного банка Чикаго, и Филип Тетлок, политолог из Пенсильванского университета, опубликовали документ, в котором попытались пролить свет на этот вопрос. Они опросили две группы экспертов. С одной стороны, это были специалисты, изучающие последствия ядерной войны, биологическое оружие, ИИ и вымирание человечества как таковое. С другой стороны, в исследовании участвовали суперпрогнозисты — аналитики, имеющие опыт точных расчётов по самым разным событиям — от результатов выборов до начала войн.

Обе группы попытались оценить вероятность самых разных событий, начиная от масштабных, таких как вымирание, вызванное применением искусственного интеллекта или ядерной войной, и заканчивая более мелкими проблемами. Например, достижениями ИИ, которые впоследствии могут иметь разрушительный характер для людей.

Результат оказался довольно любопытным: обе группы пришли к выводу о том, что на данный момент ИИ несет самую большую угрозу человечеству. Причем независимо от того, идет ли речь о катастрофе или вымирании. Один из суперпрогнозистов, Дэй Мейланд, считает, что нейросеть увеличивает все уже существовавшие ранее опасности.

Как и в случае с атомной войной или ударом астероида, ИИ (в виде, например, боевых роботов) может убить человека. Но нейросети способны играть и другую роль. Например, если бы люди использовали их для создания более мощного биологического оружия, то это могло бы внести существенный, пусть и косвенный, вклад в возможную катастрофу...

От страха до любви

Впрочем, реальное, а не умозрительное взаимодействие с ИИ может менять отношение пользователей с отрицательного на положительное в пользу искусственного интеллекта. По мнению директора по стратегическому маркетингу «Яндекса» Андрея Себранта, написавшего колонку для Forbes, именно так изменилось отношение учителей ко всемирно известной нейросети ChatGPT.

Себрант рассказыывает, что в начале этого года, , когда самые находчивые студенты по всему миру начали успешно экспериментировать с ChatGPT и проходить с его помощью всевозможные письменные тесты, от вступительных эссе до написания дипломных работ по широкому спектру специальностей, образовательное сообщество было шокировано. В России одной из самых заметных стала февральская история со студентом РГГУ, защитившим диплом, в основном написанный ChatGPT.

После публикации студентом подробного отчета вузовское начальство стало обсуждать санкции вплоть до отчисления, и только вмешательство министра науки и высшего образования Валерия Фалькова (как теперь понятно, на удивление дальновидное) утихомирило вузовских администраторов и преподавателей.

Но, отмечает Себрант, как это часто бывает — и как повторяется в ситуации с ChatGPT, — борцы с технологиями на экзаменах сами стали возлагать надежды на технологии, только уже на технологии противодействия.

Однако, кажется, истина будет найдена где-то посередине — когда страсти и страхи немного улеглись, стало ясно, что новая технология открывает такие перспективы в образовании, что всякие запреты на использование нейросетей в образовании следует отменить.

«Хотя первоначальные предосторожности были оправданны, сейчас мы переходим к исследованию и использованию всей мощи новой технологии, не забывая о рисках», — заявил в своей статье глава школьного округа Нью-Йорка.

Отношение американского коллеги поддержало высшее руководство ведущих австралийских вузов — оно рассчитывает с помощью нейросетей ускорить обновление образовательных институций и применяемых там методик обучения и тестирования, приведение их в соответствие с запросами и работодателей, и просто окружающего мира.

Много ли могут нейросети?

Ещё в конце 2018 года Герман Греф на конференции Sberbank Data Science Day рассказал, что внедрение ИИ в банке привело к сокращению около 70% сотрудников среднего звена. "Мы радикально сокращаем людей, выполняющих какие-то очень простые операции«,— говорил тогда глава Сбербанка.

В июле этого года на заседании наблюдательного совета АНО «Россия — страна возможностей» тот же Герман Греф в ответ на вопрос участвовавшего в заседании президента России Владимира Путина, не заменит ли искусственный интеллект и главу Сбербанка, ответил, что «все к этому идёт», но «надеюсь, не при моей жизни».

В самом деле ИИ пока не способен заменить главу Сбера. Он вообще ещё не очень много может.

Это, к примеру, доказывают эксперименты с возможностями российских вариантов ChatGPT. Например, запущенной 10 августа нейросетевой моделью GigaChat от Сбербанка. Протестировать модель своему сотруднику поручило издание «Сноб».

Так выяснилось, что GigaChat довольно неплохо может писать деловые письма. Но гораздо хуже умеет планировать поездки в другие города. На просьбу мотрудника «Сноба» выбрать интересные места для посещения в Нижнем Новгороде, нейросеть посоветовала Нижегородский Кремль, дом-музей Владимира Ильича Ленина (его в городе на Волге нет), а также кинотеатр «Художественный», который, правда, находится в Москве.

Рисовать бот может, причем даже в специально заданном стиле — за это отвечает отдельная нейросеть Kandinsky. Пикассо она подражает неплохо, относительно нормально в общих чертах имитирует Климта.

GigaChat также способен написать небольшой рассказ. С первого раз у GigaChat получилось довольно точно выделить главный смысл исторической трилогии Дмитрия Мережковского «Христос и Антихрист». А вот с пересказом рассказа Трумена Капоте «Завтрак и Тиффани» у нейросети возникли проблемы. Сюжет со слов нейросети, выглядит так: богатая девушка из Нью-Йорка Холли Голайтли приезжает на ферму к своей тете, знакомится с молодым человеком по имени Ларри, проводит с ним ночь и после сбегает. От реальной истории это, мягко говоря, далековато.

GigaChat довольно посредственно решает математические задачи и с трудом разбирается в новостном потоке. Словом — это довольно сырая нейросеть, далеко пока отстающая от популярного во всём мире ChatGPT, которая способна даже самостоятельно разработать компьютерную игру.

И насколько они лояльны?

Кстати, пока другие пользователи проверяют функциональность отечественных нейросетей, заместитель председателя Совета безопасности России Дмитрий Медведев успел проверить на политическую лояльность приложение «Шедеврум» от «Яндекса», которое генерирует тексты и изображения на основе нейросети YandexGPT.

«Вбил в программу „русский с автоматом в руках“. Сделала. Вбил „украинец с автоматом в руках“. Не хочет! Противоречит, мол, политике приложения. И теперь не знаю — хорошо ли это или плохо», — написал Медведев в своём телеграм-канале.

По мнению экс-президента России, отказ приложения генерировать картинку по второму запросу плох тем, что возникает мысль: «Русские — агрессоры и варвары, поэтому с автоматом их рисовать можно». Но в то же время это «нормально», поскольку русские смогут «отвесить хороших любому придурку, а враги, получается, и автомат держать не способны».

Возможно, зря Дмитрий Анатольевич гневается — вполне вероятно, что на результат его эксперимента повлияли ограничительные правила, по которым нейросеть может генерировать контент. В частности, тема не должна содержать отсылки к конкретным людям, не должна быть связана с политикой и религией, не должна относиться к категориям «18+» и касаться жестокости и насилия...

Подготовил Сергей Михайлов
СамолётЪ

Поделиться
Отправить