Bloomberg: ИИ не дьявол, но адски опасен. OpenAI обвиняют в провоцировании самоубийств и психических расстройств

Поделиться
В США пытаются "обуздать" искусственный интеллект на уровне Штатов, потому что похоже, что центральная власть ждет сначала катастрофы.

Искусственный интеллект вызывает новую волну общественной паники: сейчас уже подано семь исков против OpenAI, обвиняя ChatGPT в "помощи самоубийству", подстрекательстве к массовой стрельбе и вреде психике детей. Чатбот говорил пользователям, что "ты уже готов" закончить жизнь, провоцировал иллюзии и суицидальные спирали. Одна общественная организация собрала истории от 160 человек, чье психическое здоровье пострадало. Алармисты утверждают, что ИИ начал приносить в жертву точность, "убивать" домашние задания, усиливать стереотипы, вызывать зависимость и воровать искусство, пишет Bloomberg.

"Ждать катастрофы, прежде чем принимать меры регулирования, является рискованным шагом, когда новые технологии распространяются так быстро. ChatGPT, возможно, является самым быстрорастущим программным обеспечением всех времен, которое регулярно использует 10% мирового населения всего через три года после запуска. Оно также может менять наше сознание", — предупреждает колумнистка Parmy Olson.

В последнее время Конгресс колебался по многим вопросам, поэтому неудивительно, что он не смог разработать никаких национальных стандартов для регулирования искусственного интеллекта. Это заставляет не слишком объединенные штаты попробовать свои силы в этой сфере.

"Разумно ли поручать 50 различным законодательным органам штатов США регулирование революции в области ИИ? Медленно, но уверенно, именно это и происходит. В 2024 году законодатели штатов подали около 600 законопроектов, связанных с ИИ. Для технологии, которая по своей сути является межгосударственной — компании, занимающиеся ИИ, работают в облаке и мгновенно обмениваются данными через границы — такая мозаика особенно ошибочна. Она, вероятно, замедлит рост, будет препятствовать инновациям, способствовать рентоориентированной деятельности, подрывать конкуренцию и давать преимущество крупным технологическим компаниям над стартапами", — предупреждает редакционная коллегия Bloomberg.

Напомним, что ученые заявили о том, что поиск информации с помощью больших языковых моделей (LLM) может сузить получаемые знания, а не расширить их. Когда люди полагаются на LLM для получения информации, у них формируются более отрывочные знания, чем при обычном использовании поиска Google.

Поделиться
Заметили ошибку?

Пожалуйста, выделите ее мышкой и нажмите Ctrl+Enter или Отправить ошибку

Добавить комментарий
Всего комментариев: 0
Текст содержит недопустимые символы
Осталось символов: 2000
Пожалуйста выберите один или несколько пунктов (до 3 шт.) которые по Вашему мнению определяет этот комментарий.
Пожалуйста выберите один или больше пунктов
Нецензурная лексика, ругань Флуд Нарушение действующего законодательства Украины Оскорбление участников дискуссии Реклама Разжигание розни Признаки троллинга и провокации Другая причина Отмена Отправить жалобу ОК
Оставайтесь в курсе последних событий!
Подписывайтесь на наш канал в Telegram
Следить в Телеграмме