предсказание.

Почему языковые модели «галлюцинируют»

Команда AI for Devs подготовила перевод статьи OpenAI о природе галлюцинаций языковых моделей. Почему модели уверенно «выдумывают» факты, как это связано с предсказанием следующего слова и почему традиционные метрики только усиливают проблему?В OpenAI мы активно работаем над тем, чтобы сделать ИИ-системы полезнее и надёжнее. Но даже по мере роста их возможностей остаётся одна упрямая проблема: галлюцинации. Под этим мы понимаем случаи, когда модель уверенно выдаёт ответ, который на самом деле неверен. В нашей новой

продолжить чтение

ИИ предсказал тотальный блэкаут 27 апреля 2027 года

Пользователь одной из платформ искусственного интеллекта спросил чат-бота о том, когда ожидать следующего крупного блэкаута. ИИ ответил, что глобальное отключение электроэнергии может оставить планету в темноте 27 апреля 2027 года. 

продолжить чтение

Rambler's Top100