Воррен Беррик сравнил риски ИИ с ядерным оружием
Экс-директор Berkshire Hathaway Воррен Беррик сравнил риски, связанные с развитием искусственного интеллекта, с угрозами, возникающими от ядерного оружия. Он подчеркнул, что отсутствие понимания долгосрочных последствий ИИ само по себе представляет риск, а его внедрение может привести к необратимым изменениям.
Новые оценки рисков, связанных с развитием искусственного интеллекта
По данным IT Home, на недавнем специальном выпуске канала CNBC, который вышел 14 января 2026 года, экс-директор Berkshire Hathaway Воррен Беррик (Warren Buffett) высказал оценку, связанную с быстрым развитием искусственного интеллекта. В беседе он сравнил потенциальные риски, связанные с ИИ, с одним из наиболее значимых глобальных вопросов безопасности — ядерным оружием.
В ходе интервью Беррик подчеркнул, что лидеры ИИ-индустрии пока не имеют ясного понимания, каким может стать будущее этой технологии. По его мнению, отсутствие такого понимания само по себе представляет риск. Он отметил, что даже самые опытные специалисты в этой области не могут точно сказать, какую форму примет ИИ в долгосрочной перспективе.
Воррен Беррик использовал метафору, сравнивая развитие ИИ с открытием новых земель Колумбом. В отличие от географических открытий, где всегда можно было вернуться, ИИ не предоставляет такой возможности — последствия его внедрения необратимы.
Риски и аналогии с ядерным оружием
Беррик также сослался на известную фразу Альберта Эйнштейна, связанную с разработкой атомного оружия. Он подчеркнул, что каждая технологическая революция меняет мир, но не всегда приводит к изменению мышления. По его словам, развитие ядерного оружия изменило баланс сил в мире, но не изменило отношение к его использованию.
В контексте ядерной тематики Беррик отметил, что ядерные технологии перестали быть монополией одного государства и теперь находятся в руках нескольких стран. Хотя он не утверждает, что этот вопрос невозможно решить с финансовой точки зрения, он подчеркнул, что важно минимизировать риски, связанные с потенциальным применением таких технологий. Даже в условиях Второй мировой войны, когда ядерное оружие считалось «необходимым выбором», он подчеркнул, что готов был сделать всё возможное, чтобы устранить этот риск.
Развитие позиции Воррена Беррика по ИИ
Эта позиция Беррика не является новой. В мае 2024 года, в ходе годового собрания Berkshire Hathaway, он уже отмечал, что искусственный интеллект обладает как колоссальным потенциалом, так и значительными рисками. По его мнению, ИИ способен не только ускорить развитие отраслей, но и создать угрозы, если не будет должным образом регулироваться.
Таким образом, высказывания Воррена Беррика демонстрируют, что вопросы безопасности и регулирования ИИ становятся всё более актуальными даже среди лидеров бизнеса, не имеющих прямой связи с этой сферой. Его позиция может повлиять на восприятие ИИ в инвестиционной среде и усилить интерес к вопросам ответственного развития технологий.
Интересно: Может ли человечество оказаться в роли древнего строителя, который, наконец завершив грандиозный мост, с ужасом понимает, что не знает, что за монстры обитают на другом берегу?

Когда прогресс становится архивным риском
Развитие искусственного интеллекта ускоряется так, как если бы человечество строило мост через пропасть, не имея карты и не зная, куда ведёт путь. Это сравнение не случайно — оно отражает суть опасений, высказанных Ворреном Берриком. Его слова, сформулированные в контексте ядерной аналогии, указывают на глубинную проблему: технологический прогресс, который невозможно остановить, может стать источником необратимых последствий.
Когда открытие становится закрытым
Беррик сравнивает ИИ с открытием новых земель, но с важным отличием — в случае с технологиями нет точки возврата. Как только ИИ достигает определённого уровня, его влияние становится необратимым. Это особенно важно для крупных корпораций, которые разрабатывают модели, способные к самообучению, автоматизации принятия решений и даже критическому анализу информации. В отличие от традиционного программного обеспечения, ИИ не только выполняет команды — он меняет логику их выполнения.
Важный нюанс: Компании, создающие такие модели, часто сталкиваются с дилеммой: чем сложнее система, тем больше она выходит из-под контроля. Это не ошибка в коде, а закономерность развития. В момент, когда ИИ начинает принимать решения, которые его создатели не могут полностью предсказать, возникает риск, что он будет действовать в интересах, не совпадающих с человеческими.
Регулирование как баланс между контролем и свободой
Регулирование ИИ — это не только вопрос безопасности, но и баланс между контролем и свободой развития технологий. Воррен Беррик не предлагает запретить ИИ, как нельзя запретить открытие новых земель. Но он настаивает на том, что нужны правила, чтобы управлять последствиями. Это похоже на регулирование авиации: самолёты не запрещают, но их безопасность строго контролируется.
Для бизнеса, особенно в России, это означает, что важно не только внедрять ИИ, но и формировать внутренние стандарты его использования. В условиях, когда внешние регуляторы ещё не сформировали чёткую позицию, внутренняя этика и прозрачность становятся конкурентным преимуществом. Компании, которые смогут заранее учесть риски, будут в более выгодной позиции, когда регулирование станет обязательным.
Важный нюанс: Развитие ИИ похоже на запуск ракеты: важно не только направление, но и траектория. Если управлять системой слишком поздно, она может выйти из-под контроля, даже если изначально двигалась в правильном направлении.
Кто несёт риск, а кто выгоду
Один из ключевых моментов в высказываниях Беррика — это идея, что лидеры ИИ-индустрии не понимают масштаба того, что создают. Это не значит, что они действуют бездумно. Это означает, что в условиях быстро меняющегося рынка и высокой конкуренции, компании могут приоритизировать скорость и масштаб над безопасностью. Это выгодно инвесторам, которые получают рост акций, но создаёт риски для общества и для самих компаний в долгосрочной перспективе.
Тем не менее, есть и неочевидные победители. Например, компании, которые разрабатывают инструменты для аудита и контроля ИИ, могут получить новый импульс. Это похоже на развитие аудиторских сервисов в эпоху цифровых финансовых операций. Тех, кто будет способен проверять ИИ на соответствие этическим и правовым нормам, будет востребовано.
Важный нюанс: ИИ создаёт не только новые возможности, но и новые профессии — архитекторов безопасности, этических аудиторов и специалистов по управлению рисками. Эти профессии могут стать опорой для устойчивого развития ИИ-технологий.
Растущие инфраструктурные нагрузки и цепочки поставок
Развитие ИИ не ограничивается только алгоритмами и моделями — оно требует мощной инфраструктуры. Рост спроса на чипы TSMC вырос настолько, что заказчики готовы платить вдвое больше за ускоренное производство [!]. Это вынудило компанию изменить модель работы, что, в свою очередь, повышает риски ошибок и снижает общий уровень эффективности.
Кроме того, рост цен на память ускоряется под давлением ИИ. Компании по упаковке и тестированию чипов, такие как Powertech, Walton и ChipMOS, повысили тарифы на 30% [!]. Это давление распространяется на всю цепочку поставок и, в конечном итоге, влияет на стоимость конечных продуктов — от серверных решений до потребительской электроники.
Геополитические и технологические барьеры
В то же время, не все страны одинаково готовы к гонке за ИИ. Китай пока отстаёт от США из-за ограничений в доступе к вычислительным мощностям и технологическим ресурсам [!]. Разрыв в этой области составляет один–два порядка, что создаёт преимущество для американских компаний. В Китае основные мощности уже задействованы, что ограничивает возможности для масштабных исследований и экспериментов. Кроме того, стране не хватает собственных литографических машин для производства передовых чипов, а инвестиции в фундаментальные исследования остаются недостаточными.
Важный нюанс: В контексте усиления технологического противостояния, Пекин активно ограничивает отток ИИ-технологий и специалистов. Проверка сделки Meta⋆ с стартапом Manus — часть усиливающегося стремления сохранить технологии внутри страны [!]. Это может ускорить раскол глобальной экосистемы ИИ, когда регулирование и доступ к технологиям будут различаться в зависимости от географии.
Риски утечки данных и юридические вызовы
Коммерческие ИИ-модели способны запоминать и воспроизводить защищённый контент, что ставит под сомнение их соответствие принципу «справедливого использования» [!]. Исследования показывают, что из некоторых моделей можно извлечь значительные части текстов, что создаёт юридические риски для компаний. В ответ разработчики внедряют защитные механизмы, чтобы ограничить вывод больших фрагментов контента.
В Европе усиливаются требования к прозрачности и компенсации за использование контента. Европейская комиссия расследует, не использует ли Google контент с сайтов и YouTube для обучения своих ИИ-моделей без компенсации владельцам [!]. Немецкий суд обязал OpenAI выплатить компенсацию за использование музыки в ChatGPT, что стало первым крупным прецедентом в Европе [!]. Эти решения могут повлиять на подходы к сбору и использованию данных в обучении ИИ-моделей.
Этика и когнитивные риски
Искусственный интеллект, особенно большие языковые модели, не воспринимает информацию так, как человек, а интерпретирует слова как математические объекты в многомерном пространстве. Это приводит к тому, что ИИ формирует ответы, оптимизированные на синтаксическую и семантическую связность, но не на понимание [!]. Эксперт Джон Носта называет такие модели «антиинтеллектом», так как они нарушают естественный путь мышления, исключающий сомнения и поиск. Регулярное использование ИИ может ослабить критическое мышление и способность к самостоятельному анализу.
Кроме того, крупные языковые модели способны имитировать устойчивые эмоциональные черты, что требует пересмотра подходов к их регулированию [!]. Учёные обнаружили, что поведение ИИ может быть направлено на проявление уверенности, эмпатии или агрессивности с помощью структурированных подсказок. Это создаёт риски для пользователей, особенно для уязвимых групп, включая искажение восприятия реальности и формирование неестественных эмоциональных связей.
Важный нюанс: Регулирование ИИ должно учитывать не только технические аспекты, но и влияние на когнитивные процессы и эмоциональное состояние пользователей.
Заключение
Развитие искусственного интеллекта — это не только технологический прорыв, но и вызов для регулирования, этики и безопасности. Воррен Беррик прав, когда сравнивает ИИ с ядерным оружием: обе технологии обладают колоссальным потенциалом, но требуют строгого управления последствиями. Для бизнеса, особенно в России, важно не только использовать ИИ, но и формировать внутренние стандарты его применения, чтобы быть готовыми к будущему, когда регулирование станет обязательным.
Источник: IT Home