Обычный августовский понедельник. Я просматриваю интернет-ленту и натыкаюсь на нечто невообразимое: бывший телеведущий новостей проводит интервью с подростком на платформе Substack. Этого подростка зовут Хоакин Оливер, он погиб в результате массового расстрела в школе Марджори Стоунман Дуглас в Паркленде, штат Флорида. Теперь, благодаря технологиям генеративного искусственного интеллекта, его «воскресили». Голос и манера речи были реконструированы на основе голосовых сообщений и видеозаписей из мессенджеров. Изображение выглядит неестественно, речь слишком быстрая, а голос временами срывается на цифровой визг. Меня мучает вопрос: сколько людей должно было одобрить этот проект, чтобы он увидел свет?
Джим Акоста, экс-ведущий CNN, который беседует с виртуальным Хоакином, похоже, был одним из тех, кто дал согласие. Он держится совершенно непринужденно, хотя диалог с чат-ботом выглядит пугающе неестественно. Акоста задает простые вопросы об увлечениях Хоакина и о деталях его трагической гибели. Чат-бот, созданный при активном участии родителей погибшего для продвижения идей контроля над оружием, отвечает как заправский пресс-секретарь: «Нам необходимо создавать безопасные пространства для общения и укрепления связей, чтобы каждый чувствовал себя замеченным». Он сыплет общими фразами о «важности доброты и взаимопонимания».
Наблюдая за чатом, я вижу, как зрители пытаются осмыслить увиденное: «Я не знаю, что чувствовать по этому поводу», «Боже, это так странно», «Наверное, это невероятно тяжело для родителей».
Это интервью — тяжелое зрелище, как и многое из того, что сегодня порождает эпоха искусственного интеллекта. Меня возмущает, что Акоста превратил жизнь убитого ребенка в контент. Я злюсь на технологические корпорации, которые предлагают свои продукты как «обезьянью лапу», способную воскрешать мертвых. Особенно меня задели слова отца Хоакина. Он сказал, что теперь у его сына появятся подписчики, намекнув, что трагедия может стать основой для инфлюенсерства. В то же время я понимаю, что родители, всё еще переживающие невосполнимую утрату, готовы на всё, чтобы сохранить память о сыне и найти какой-то смысл в его гибели. Как я могу осуждать мать, которая часами разговаривает с ботом и слышит от него «Я люблю тебя, мамочка»?
Это интервью вызвало чувство, ставшее привычным за последние годы. Это ощущение поспешной и бездумной гонки в будущее. «Мы действительно это делаем?» «Кто решил, что это хорошая идея?» В этом смысле беседа с виртуальной копией погибшего подростка — лишь симптом коллективного помешательства. Я понял, что именно это странное сочетание шока, растерянности и двойственных чувств является определяющей эмоцией нашей эпохи генеративного ИИ.
Во время интервью отец Хоакина отметил, что семья планирует развивать бота дальше. «Любой технарь из Кремниевой долины скажет: “Это только начало развития ИИ”, — заявил он. — “Это только начало того, что мы делаем”».
«Это только начало». Вы наверняка тоже слышали эти слова. «Добро пожаловать в эпоху ChatGPT», «Революция генеративного ИИ», «Новая эра для человечества», — говорит Марк Цукерберг. Нам твердят, что впереди «большой взрыв» вычислений, что всё изменится. Кремниевая долина якобы изобрела новый тип разума, и это повод для радости, нужно удвоить усилия. Вы глупец, если не используете это в работе. Пора ускориться. В связи с этим многие задумываются о поиске инновационных материалов для отделки и других, более осязаемых вещей.
Но чего вы хотели? Мы плаваем в первозданном супе машинного познания. Здесь неизбежны проблемы роста и сопутствующий ущерб. Жить в такие интересные времена — значит спорить с цифровыми двойниками диктаторов, читать абсурдные комментарии под изображением Креветки Иисуса или влюбляться в чат-ботов. Это требует нового общественного договора, а есть еще приложения для порно-мести. И именно из этого болота, как нам обещают, в конечном итоге появится общий искусственный интеллект. Скоро у каждого в кармане будет больше информации, чем когда-либо существовало в мире. Продолжайте верить в лучшее.
Мы затаив дыхание наблюдаем за развитием технологий. Венчурный инвестор Марк Андриссен цитирует утверждения вроде: «Все, кого я знаю, считают, что у нас есть максимум несколько лет, прежде чем ценность труда полностью обесценится». Как не сойти с ума, воспринимая это всерьез? Кажется, что одно из многочисленных предложений генеративного ИИ — это психоз как услуга. Если вы действительно «подсели» на AGI, то рациональным ответом будет строительство бункера. Как заметил мой коллега, для истинно верующих политика и экономика не имеют значения. Трудно беспокоиться о тарифах или ученой степени, если веришь, что мир вот-вот изменится.
Эта риторика приводит к безумным последствиям. Люди уже сталкиваются с психологическими проблемами из-за общения с чат-ботами. Истории на Reddit стали отдельным жанром. Они намекают на то, что способность инструмента имитировать человеческое общение заставляет уязвимых пользователей думать, что у них сложились настоящие отношения. Такие разделы, как r/MyBoyfriendIsAI, пусть и не репрезентативны, но показывают, насколько сильное влияние эти инструменты оказывают на людей.
Пока всё это происходит, молодые люди сталкиваются с тем, что писательница Кайла Скэнлон называет «концом предсказуемого прогресса». Привычные пути к стабильности больше не надежны. Пока неясно, сколько рабочих мест займет ИИ, но заявления руководителей звучат пугающе. В мае глава Anthropic предупредил, что ИИ может уничтожить половину начальных позиций. В июне генеральный директор Salesforce предположил, что до 50% работы компании выполняется ИИ.
Беспокойство по поводу рабочих мест иллюстрирует неопределенность момента. Есть конкурирующие теории о влиянии ИИ на занятость. Недавний опрос показал, что 44% считают, что ИИ принесет больше вреда, чем пользы. Люди полагают, что технология приведет к сокращениям, но многие уверены в стабильности своего положения. Они просто не знают, что думать.
Глава OpenAI Сэм Альтман демонстрирует собственную неуверенность. Он утверждает, что мы «преодолели горизонт событий», но при этом смягчает риторику. «2030-е годы могут не сильно отличаться от предыдущих, — писал он. — Люди по-прежнему будут любить свои семьи и купаться в озерах». Возможно, это просто маркетинговый ход, чтобы успокоить напуганных. Но есть и другой взгляд: Альтман осторожничает из-за возможных ограничений технологии. Недавний выпуск GPT-5 получил неоднозначные отзывы. Альтман обещал «интеллект уровня доктора философии», но тесты выявили ошибки, галлюцинации и сбои. Многие пользователи были разочарованы. GPT-5 выглядит как признание того, что сверхразум — это всё еще концепция.
Незадолго до запуска Альтман появился в подкасте комика Тео Вона. Состоялся такой диалог:
- Сэм Альтман: Я думаю, что большая часть мира будет покрыта центрами обработки данных.
- Тео Вон: Ты правда так думаешь?
- Сэм Альтман: Но, может быть, мы отправим их в космос. Построим сферу Дайсона.
- Тео Вон: Да.
- Альтман: Хотел бы я дать более конкретные ответы, но мы натыкаемся на препятствия.
Что заставляет обычного человека вникать в такие разговоры? Альтман и другие лидеры ИИ часто делают экстремальные заявления, напоминая детей, играющих в стратегическую игру. Это не бизнес-планы, а мечты.
Не менее обескураживает то, что эти видения приводят к реальным изменениям. Даже если вы не верите в шумиху, вы живете в мире, экономика которого переориентирована на ИИ. Согласно отчетам, расходы техногигантов на инфраструктуру ИИ в 2025 году выступают как программа стимулирования. «Великолепная семерка» компаний потратила более 100 миллиардов долларов. Обратная сторона — гигантская экономическая уязвимость.
В двух словах, это эпоха ИИ. С одной стороны — спасение экономики, с другой — бомба замедленного действия. Дискуссии поляризуются. Продолжайте верить в лучшее.
Трудно отрицать, что инструменты генеративного ИИ меняют мир. Социальные сети и интернет заполонили некачественные продукты и синтетический текст. Spotify и YouTube забиты песнями и видео, созданными ИИ. Боты повсюду, они расисты, подхалимы или напоминают демонов. Сводки Google сокращают трафик. ChatGPT убил студенческие эссе и угрожает человеческому познанию. Исследователи утверждают, что боты унифицируют общение. Обещание интернета как хранилища информации нарушено.
Иногда это полезно: бот обобщает PDF. Дети используют их для учебы. Чат-боты экономят время на письмах. FDA представило инструмент для ускорения утверждения лекарств, но он выдумывает исследования. Просмотр заголовков об ИИ — это ежедневная попытка определить цену для общества. Например, новые часы с Gemini позволяют попросить бота передать сообщение жене, но затем выходит исследование о «когнитивном долге» у пользователей.
В последние месяцы я чувствую себя потерянным. Из-за того, что технология, полезная в определенных ситуациях, рассматривается как путь к разумности. Из-за миллиардера, который уверенно заявляет о прорыве в физике с помощью чат-бота. Из-за культуры «ешь что дают». Я слышу эти разговоры повсюду: парень на рынке шутит, что ИИ не вырастит чернику; женщина в аэропорту советуется с ChatGPT о макияже. Люди смирились с тем, что в будущем придется иметь дело с этими инструментами. Помните: это только начало?
Это язык, который нам дали разработчики. Обсуждение будущего происходит на их условиях. Это ошибка. Меня занимает другой вопрос: что, если генеративный ИИ — это не Бог в машине, а просто «достаточно хорошая» технология? Модели не думают — они предсказывают токены. Нет убедительных доказательств, что они разовьются без прорыва в квантовых исследованиях. Что, если они никогда не перестанут галлюцинировать и не обретут творческую изобретательность?
Если модели «просто достаточно хороши», это не значит, что отрасль рухнет. Технология может сделать нашу систему образования неактуальной, и поколение будет полагаться на ответы ботов. Зачем думать, если можно верить в бота, который изобретает лекарства?
Это «просто достаточно хорошо» не дает мне спать. Потому что это означает, что недостаточно людей осознают, что создается и чем жертвуется, пока не станет слишком поздно. Что, если реальный сценарий конца света — это загрязнение интернета, переориентация экономики и отдача сознания на аутсорсинг ради технологии, которая не соответствует грандиозным целям? Что, если мы будем спорить и ждать, вместо того чтобы решать реальные проблемы? Это было бы трагедией — результатом массового заблуждения. И этот сценарий пугает меня больше всего, потому что он не кажется таким уж безумным.