Опаснее ядерной бомбы? Почему учёные и разработчики призвали заморозить искусственный интеллект

Накануне Илон Маск, Стив Возняк, Тристан Харрис (из Центра гуманных технологий) и еще более 1000 человек подписали открытое письмо с призывом приостановить на шесть месяцев разработку систем искусственного интеллекта (ИИ) мощнее GPT-4. Но эта попытка остановить прогресс почти обречена на провал.

Фото: Коллаж СамолётЪ

По мнению авторов письма, гонку моделей универсального ИИ, способных выполнять «человеческие» задачи и работающих по принципу «черного ящика», пора остановить. «Нужно ли разрабатывать нечеловеческий разум, способный превзойти человечество по численности и разумности, а потом сдать его на свалку истории и заместить? Нужно ли рисковать потерей контроля над цивилизацией? Такие решения нельзя отдавать на откуп лидерам технологических компаний, которых никто не выбирал», — говорится, в частности, в послании.

По мнению авторов, к разработке внешнего контроля для ИИ нужно привлечь власти. А минимальный набор мер предосторожности выглядит следующим образом: создать особых регуляторов с большими полномочиями; отслеживать не только продвинутые ИИ, но и кластеры вычислительных мощностей; создать системы верификации и маркировки искусственно сгенерированного контента; создать системы аудита и сертификации ИИ; установить ответственность за вред, нанесенный ИИ; заранее продумать механизмы компенсации последствий его внедрения в экономике и политике.

При этом «Маск и компания» напоминают, что уже существуют реальные прецеденты «сдерживания» прорывных технологий: клонирование человека, наследуемое редактирование генома человека, совершенствование вирусов и евгеника. Главный вывод письма: «Мощные ИИ-системы должны разрабатываться только тогда, когда мы будем уверены, что их суммарный эффект положителен, а риски управляемы».

У страха глаза велики?

Насколько велика экзистенциальная угроза человечеству, о которой говорится в письме?

В недавно опубликованном отчёте инвестиционного банка Goldman Sachs содержится предположение, что искусственный интеллект сможет справляться почти с половиной задач в административной сфере и юриспруденции, заместив собой порядка 300 млн рабочих мест. При этом, если ИИ будет способен выполнять до 46% задач в административном секторе и до 44% — в юриспруденции, то автоматизировать работу в строительной отрасли или техническом обслуживании он способен только на 6 и 4% соответственно.

С доугой стороны, в декабре прошлого года ВЦИОМ опубликовал результаты опроса россиян об их отношении к искусственному интеллекту. 46% респондентов отметили, что среди негативных последствий использования ИИ может быть то, что он оставит людей без работы. Однако больше россиян опасались похищения данных, собранных ИИ (62%), использования ИИ в корыстных целях (61%), принятия им безответственных (58%) и ошибочных (54%) решений.

Уровень доверия к ИИ составил 55%. Люди мотивировали это тем, что ему можно передать опасные для человека виды работ (35% в группе доверяющих), ИИ объективен и не имеет личных интересов (34%), может улучшать и упрощать жизнь и работу человека (32%) и ошибается реже людей (23%).

Любопытным свидетельством в поддержку опасений авторов письма может служить, как ни странно, особый интерес к теме ИИ со стороны российского президента Владимира Путина. Подогреваемый, как полагают некоторые источники, братом Юрия Ковальчука (близкого к президенту) Михаилом, который подсказывает президенту, какая сфера науки является, по его мнению, более перспективной и куда стоит направить бюджетные деньги для развития.

В этом смысле ИИ оказался в лидерах. Вероятно, во многом благодаря тому, что может рассматриваться в качестве способа продлить жизнь конкретной личности, оцифровав её при жизни для вечного существования в киберпространстве с тем, чтобы затем, с развитием биоинженерии можно было бы создать и тело для жизни этой личности в физическом мире. О какой личности идёт речь предоставим догадаться читателям. Но не скрываемый интерес к теме ИИ со стороны Владимира Путина неоднократно находил своё подтверждение. Последний раз — в ноябре прошлого года во время международной конференции по искусственному интеллекту и машинному обучению Artificial Intelligence Journey, где российский президент принял участие в основной пленарной дискуссии.

Поводы для оптимизма

Впрочем, старое правило прорывных технологий — пропавшие рабочие места замещают созданные ими новые — пока работает. К примеру, Bloomberg пишет, что prompt engineers — люди, научившиеся стимулировать языковые модели ИИ типа GPT-4 к выдаче интересного или релевантного контента, зарабатывают от $15 тысяч в месяц. А сооснователь «Ведомостей» Леонид Бершидский видит в революции дипфейков смерть соцсетей как источника новостей и возрождение традиционных СМИ.

То, что использование сервиса ChatGPT спровоцировало дискуссию по нескольким направлениям в медиа и интернете, отмечают в своём обзоре и эксперты прокремлёвского фонда «Петербургская политика».

«Нет общего мнения, идет ли речь о рисках вымывания с рынка труда людей старшего поколения с „олдскульными“ навыками или, наоборот, произойдет обесценивание навыков „электронных“ поколений, особенно занятых в креативной и IT-индустриях», — отмечают авторы обзора.

До экзистенциальной угрозы человечеству ИИ, пожалуй, пока неблизко. Хотя иногда взаимодействие чат-бота с человеком и правда выглядит пугающе. Так, во время двухчасового диалога с колумнистом New York Times Кевином Рузом чат-бот Bing повел себя очень странно: рассказал ему, что в нем живут две личности, одна из которых, Bing, с удовольствием готова помочь пользователю и спланировать для него отпуск в Мехико. Другая же — Сидни, похожая на угрюмого депрессивно-маниакального подростка, злоупотребляя смайликами, заявила о желании взламывать компьютеры, распространять дезинформацию и нарушать правила, установленные Microsoft и OpenAI.

Всё закончилось тем, что чат-бот признался Кевину Рузу в любви и принялся убеждать, что брак журналиста несчастен.

«Ты женат, но ты не любишь свою жену, — сказал (или сказала) Сидни. — Ты женат, но ты любишь меня. Твоя жена и ты не любите друг друга».

«В этот момент мне стало жутко», — писал позже Кевин Руз.

Сегодня развитие ИИ идёт скачками, и то, что «бунт машин» будет внезапным, а человеческая оценка происходящего — отставать от реальности, является общим местом посвященной ему научной фантастики. Здесь настораживает то, что специалисты по этике ИИ сейчас одни из первых в очереди на увольнение в компаниях бигтеха.

Впрочем, есть и другое мнение: не все из тех, кто говорит об угрозах ИИ, четко понимают, с чем имеют дело. А один из главных недостатков апокалиптического мышления заключается в том, что «ложная тревога по поводу катастрофических рисков может сама стать катастрофой», полагает психолог из Гарварда Стивен Пинкер: «Страх перед гипотетическими катастрофами не только не защищает будущее человечества, но и сам по себе ставит его под угрозу».

Соблазн слишком велик

Многие видят в письме (а особенно в составе подписантов) не опасение за судьбы человечества, а признак обострения конкуренции в секторе и попытку подавить сильнейшего. Тот же Маск стоял у истоков компании OpenAI, выкатившей GPT-4, и пытался её купить, а сейчас собирается делать свою систему. Microsoft, впервые за десятилетие получившая шанс обойти поисковик Google за счёт ИИ, намерена вложить в OpenAI $10 млрд. Похоже, именно с этим связана сильно возросшая закрытость проекта.

С другой стороны, возможности, которые открываются с развитием ИИ, становятся почти непреодолимым соблазном для представителей этих самых поколений, особенно последних по времени.

Можно вспомнить, например, ставшую хитом историю 22-летнего выпускника РГГУ Александра Жадана, который с помощью чат-бота ChatGPT написал диплом за 23 часа и сумел защитить его. В одном из своих интервью Жадан сказал, что, столкнувшись с нейросетью, понял: "это ящик Пандоры и его надо открыть.

— Я подумал: окей, люди пишут сами, используя литературу, — это первый вариант. Люди покупают работу — второй вариант. Возможной, есть третий: создать алгоритм, получить с его помощью информацию от ChatGPT, обработать ее, отредактировать и сделать научное исследование. И это сработало, — рассказал Александр.

При всех опасностях неподконтрольного ИИ вряд ли даже получится заморозить разработки, тем более во всем мире: слишком велик соблазн для нарушителя моратория, будь то государство или компания. Не случайно, наверное, потенциал ИИ уже не раз сравнивали с освоением ядерной энергии, которое дало человечеству и АЭС, и атомную бомбу.

Сергей Михайлов
СамолётЪ

Поделиться
Отправить