Обучение скрытых слоёв S–A–R перцептрона без вычисления градиентов. Часть 2
Предисловие. Опубликовав первую часть понял, что само обучение перцептрона мало кого интересует, пока не будет экспериментальных результатов. И это разрешило мою дилемму о том, как сократить изложение для хабра. Мы пропустим разделы с объяснением архитектуры перцептрона TL&NL и начнем сразу с 4 раздела моей статьи. 4. Точность прогнозирования
У языковых моделей развивается деградация интеллекта из-за мусорных данных
Учёные предупредили о тревожном феномене, который уже получил собственное имя — Brain Rot, или гниение мозга. Он наблюдается у больших языковых моделей, которые слишком часто обучаются на некачественных данных из интернета: вирусных постах, бессмысленных комментариях, спаме и кликбейтных статьях.
OpenAI ставит цель заработать триллион долларов за пять лет
Компания OpenAI достигла впечатляющей отметки годового регулярного дохода в 13 миллиардов долларов. По данным Financial Times

