LLM «шаблонно» креативны — подтверждено исследованием
В издательстве Oxford University Press вышло интересное исследование - они дали разным ИИ моделям выполнить задачи на креативность в заданных рамках, чтобы узнать, насколько уникальные решения они предоставят.
Критерии выживания и случайность — 2
Предыдущие статьи цикла.Случайность — другое имя БогаПовезло или сам добился? Как оценить?Критерии выживания и случайностьВ этой части цикла рассмотрим 3 категории — богатство, социальные связи и образование.Богатство: логика построения моделиБогатство отражает материальное положение сущности — от полной нищеты до максимального достатка. Каждый год оно пересчитывается по простому принципу: заработал минус потратил.ЗаработокДоход складывается из двух источников.
Anthropic изучила эмоции ИИ и их влияние на поведение моделей
Работа показывает, что имитация человеческих эмоций помогает снижать склонность к обману и манипуляциям, но создаёт риски чрезмерной антропоморфизации.
Повезло или сам добился? Как оценить
Предпосылки и моя мотивация к созданию модели описаны в первой статье цикла, поэтому не буду повторяться.Изначально идея была простой.Составляем список факторов, влияющих на жизненный успех. Список создавался исключительно умозрительно, путём рассуждений. Получился такой:ЗдоровьеБогатствоСоциальные связиОбразованиеЖизненные факторыИнтеллектАдаптивностьЛичные усилия
Kimi K2.5 наступает на пятки GPT-5.4. И работает из России без VPN
Бенчмарков сейчас – как нейросетей: каждую неделю новый. GPQA Diamond тестирует PhD-знания. Lexometrica проверяет фактическую точность. LLM Persuasion Benchmark – способность убеждать в дебатах. Chatbot Arena – предпочтения живых людей. Резонный вопрос: зачем ещё один?
ИИстерия — а есть ли она?
Вводное словоЧуть более двух лет назад я опубликовал здесь статью про восприятие IT-специалистами феномена нейросетей. Тогда моё «исследование» (не стоит убирать кавычки, это именно «исследование») базировалось на опыте психологического консультирования 30 представителей сферы, с которыми поднималась эта тема. Если мы вернемся немного назад во времени, то картина будет следующей.
Исследование Стэнфордского университета выявило опасности обращения к чат-ботам с ИИ за личными советами
Учёные Стэнфордского университета предупредили об опасностях обращения к чат-ботам на базе искусственного интеллекта за личными советами. Они назвали «подхалимство» нейросетей широко распространённым поведение с серьёзными последствиями.

