llm. - страница 12

llm.

Как перепутать ‘aware’ с ‘conscious’ и опубликовать это на arXiv. Учёные нашли сознание в LLM. Опять

Представьте: вы спрашиваете у системы "Ты сознательна?", она отвечает "Нет". Вы отключаете у неё "способность врать" — и она начинает отвечать "Да". Вывод очевиден: она всё время лгала, скрывая своё сознание!Именно так рассуждают авторы свежей статьи на arXiv. Но что, если они отключили не "ложь", а что-то совсем другое? Разберём по шагам, где именно ошиблись исследователи — и почему эта ошибка типична для многих работ о "сознании” LLM

продолжить чтение

LLM Evals: движущая сила новой эры ИИ в бизнесе

На днях OpenAI опубликовали в своем блоге небольшую статью с достаточно громким названием «How evals drive the next chapter in AI for businesses». Я сделал ее перевод, чуть адаптировав для лучшей читабельности, очень уж бюрократический язык в оригинале.Статью авторы называют «руководством для бизнес-лидеров». Внутри — про оценку недетерминированных систем, как к этому подходить, немного про A/B тесты и почему не стоит пытаться решить все сразу. Классический цикл фиксации метрики и постепенного ее улучшения, но с LLM спецификой.

продолжить чтение

Вечный ревьювер: как ИИ меняет работу разработчиков

Все в курсе того, что количество разговоров вокруг ИИ растет с каждым днем. В нашу жизнь вошли такие термины как «вайбкодинг», «промпт-инжиниринг» и другие подобные. Работая в одной из крупнейших ИТ-компаний, я вижу, как в реальности выглядит внедрение ИИ-инструментов для разработчиков. Оно и понятно: эти инструменты обещают кратно увеличить производительность. Но что, по моему мнению, реально будет плотно применяться и являться неким бейзлайном для устройства на работу в ближайшее время?

продолжить чтение

Искусственный разум под микроскопом: ученые разобрали отличительные признаки сгенерированных текстов

Команда исследователей из Сколтеха, МФТИ, Института искусственного интеллекта AIRI и других научных центров разработала метод, позволяющий не просто отличать тексты, написанные человеком, от сгенерированных нейросетью, но и понимать, по каким именно признакам классификатор принимает решение о том, является ли текст генерацией или нет.  Анализируя внутренние состояния глубоких слоев языковой модели, ученые смогли выделить и интерпретировать численные признаки, отвечающие за стилистику, сложность и «степень уверенности» текста. Работа принята на конференцию Findings of ACL 2025 и 

продолжить чтение

LLM в науке. Используем LLM в анализе эксперимента

Очень много говорят о вреде использования LLM для пользователей. Проводятся научные эксперименты, которые, в большинстве своём, подтверждают интуитивные предположения о рисках. Подопытные впадают в эмоциональную зависимость, тупеют, теряют память, снижается критичность, уверены в собственной правоте, разрывают связь с обществом и так далее

продолжить чтение

ADSM: каталоги верхнего уровня

Когда мы работаем в паре с LLM-агентом, нужно принимать во внимание природу нашего "партнёра". Агент опирается только на тексты, действует в пределах ограниченного контекста и не удерживает долгосрочную историю. Поэтому особенно важным становится то, какие тексты мы ему предоставляем и как они структурированы.Ниже - компактная, прикладная схема верхнего уровня, которую можно использовать в собственных проектах. Она помогает держать порядок, снижает шум для модели и делает работу агента более предсказуемой.Общий принципПроект лучше разделять на три смысловых слоя:./ctx/ product/ rules/ agent/

продолжить чтение

Квантовые физики уменьшили и «освободили от цензуры» DeepSeek R1

Им удалось сократить размер ИИ-модели рассуждений более чем наполовину — и они утверждают, что теперь она может отвечать на политически чувствительные вопросы, которые раньше были под запретом в китайских ИИ-системах.TL;DR:Multiverse Computing сжала DeepSeek R1 с помощью квантово-вдохновлённых тензорных сетей: модель стала на 55% компактнее при почти той же точности. По пути они «сняли» китайскую цензуру: модифицированная версия отвечает на табуированные для китайских LLM вопросы примерно как западные модели.

продолжить чтение

Наш новый LLM-based синтез речи

Всем привет! Я Гриша Стерлинг, лид команды TTS в Сбере. Мы сделали новый синтез речи, он на голову лучше старого, особенно по естественности и человечности. Мы так и называем его – «новый синтез», или GigaTTS. Он умеет смеяться, справляется со всеми эмоциями, говорит как живой человек.Сразу предлагаю поболтать с ним в голосовом режиме GigaChat.

продолжить чтение

Почему ChatGPT не знает ваших внутренних данных и как это исправить: простое объяснение RAG

Вы думаете, ChatGPT стал идеальным? Может «загуглить» любой факт, анализировать документы, даже писать код? Попробуйте спросить его про внутренние API вашей компании, корпоративные гайдлайны или правила код-ревью. Он молчит — и не зря. Ведь около 80 % рабочего времени программист тратит на поиск информации во внутренних системах.Сегодня расскажу о технологии, которая решает эту проблему — Retrieval Augmented Generation (RAG).Почему ChatGPT «не знает» ваши документы

продолжить чтение

Зашкаливающая бюрократия на стыке проектов двух крупных банков — мой опыт

Я руководитель проектов, работаю с крупными корпоратами и банками первой пятёрки.Самый ад — это когда проект на стыке двух таких банков. У меня есть живой пример )На этом проекте:Юристы и безопасники из двух банков 4 месяца гоняли договор по кругу. Надо было как-то их договорить и всё-таки начать работать. Договор был рассчитан до 2026 года, а бюджет в системе был заложен только на 2025-й. Бухгалтерия возвращала ошибку Not defined и предлагала запланировать бюджет на 2026 год прямо сейчас.Уволился ключевой подписант.Это был ИТ-директор!

продолжить чтение

Rambler's Top100