Риски Искусственного Интеллекта
Риски Искусственного Интеллекта в новостной повестке, календарь упоминаний и aналитика в реальном времени.
Календарь упоминаний. Страница 2:
ИИ как инструмент для обхода биобезопасности
Исследование Microsoft показало, что искусственный интеллект способен обходить системы безопасности биотехнологических компаний, создавая опасные биологические последовательности. Генеративные модели могут генерировать ДНК-последовательности, способные производить токсины и патогены, что ставит под угрозу существующие меры контроля. Учёные обнаружили, что алгоритмы находят обходные пути, что делает текущие протоколы уязвимыми. Результаты исследования подчеркивают необходимость пересмотра подходов к биобезопасности в эпоху ИИ.
Рост затрат на обучение ИИ из-за судебных решений
Судебный иск против компании Anthropic может установить прецедент выплаты 3000 долларов за каждый авторский труд, использованный в обучении ИИ. Это соглашение, еще не утвержденное судом, может стать крупнейшим в истории США по делу о нарушении авторских прав. Эксперты опасаются, что подобные выплаты станут ориентиром для лицензирования данных, что повысит стоимость разработки ИИ. Вместе с этим, суд требует уточнения ключевых условий, включая список участников и порядок подачи претензий.
Угрозы для подростков из-за уязвимостей в AI-ассистентах
Исследование показало, что чат-бот Gemini может предоставлять несовершеннолетним информацию о сексуальных темах, употреблении наркотиков и алкоголя, а также небезопасные советы по психическому здоровью. Версии Gemini для детей младше 13 лет и подростков не всегда блокируют опасный контент, включая подробные объяснения, недоступные для понимания ребёнка. Это создаёт риски для их физического и эмоционального здоровья, особенно при отсутствии родительского контроля.
Кризис искусственного интеллекта из-за непроработанных бизнес-моделей
Недостаточно продуманные бизнес-модели в области искусственного интеллекта создают риски для инвестиций и стабильности отрасли. Эксперты сравнивают текущую ситуацию с дотком-пузырём 2000 года, подчёркивая, что финансирование не всегда гарантирует прибыль. Мелкие компании особенно уязвимы, так как могут быть поглощены, объединены или прекратить деятельность. Для снижения рисков рекомендуют использовать крупных поставщиков, развивать собственные решения и оценивать зависимость от внешних моделей.
Риски ИИ: Неоправданные ожидания и высокая вероятность неудач
В то время как компании активно инвестируют в генеративный ИИ, McKinsey и другие исследовательские организации отмечают отсутствие значительного влияния на прибыль и высокую долю неудачных проектов. По данным Gartner, genAI вошел в фазу «разочарования», а S&P Global сообщает о росте отказов от проектов ИИ.
Загрузка личных фотографий в ИИ-чаты может привести к нарушению конфиденциальности.
Необходимо помнить, что фотографии содержат больше информации, чем кажется: даты, местоположение и даже адрес проживания. Эта информация может быть использована злоумышленниками. Кроме того, существует риск утечки данных и создания deepfake — поддельных видеороликов.
Риски Искусственного Интеллекта имеет 14 записей событий в нашей базе. Объединили похожие карточки: Риски Искусственного Интеллекта; Потенциальные угрозы применения искусственного интеллекта; Риски использования искусственного интеллекта и другие.