llm. - страница 108

llm.

Lock-free код и шахматы: где LLM показывают свою несостоятельность

Все мы привыкли к тому, что нейросети творят чудеса. Suno генерирует музыку неотличимую от человеческой, Flux рисует картины лучше многих художников, Claude переводит тексты так, что даже носители языка не сделают это лучше. Создается впечатление, что искусственный интеллект вот-вот заменит нас во всех сферах деятельности.Но есть одна маленькая проблема. Как только задача требует настоящего размышления, а не воспроизведения заученных паттернов, LLM начинают творить такую дичь, что становится стыдно, что знаком с ними.

продолжить чтение

Docling in Working with Texts, Languages, and Knowledge

Docling in Working with Texts, Languages, and KnowledgeHi everyone. In the context of our research project, we were solving the problem of automating academic submission workflows, which led us to discover a platform called Docling.Together, we explore the role of Docling in reshaping how research data can be represented, reused, and reasoned over in both human and machine-readable formats.

продолжить чтение

Как мы обучали модели для кода GigaCode

Привет, Хабр Меня зовут Дмитрий Бабаев, я руководитель R&D GigaCode в Сбере. Сегодня расскажу о том, как мы создавали ИИ‑помощника для программистов задолго до того, как это стало мейнстримом.

продолжить чтение

О чем грезят нейронные сети

Кажется, мы настолько привыкли к прогрессу нейронных сетей, что больше удивляемся, когда они чего-то не умеют, чем видя их новые достижения. Тем не менее, сегодняшние технологии искусственного интеллекта — это самое начало пути.Интеллектуальные модели на основе нейронных сетей, при всех их впечатляющих возможностях, не лишены серьезных недостатков, зачастую являющихся обратной стороной достоинств. Отталкиваясь от используемой сегодня архитектуры, попытаемся определить возможные направления дальнейшего развития систем искусственного интеллекта (ИИ).

продолжить чтение

Прорыв от Google: активное обучение с экономией данных на 10 000× при дообучении LLM

Google разработала масштабируемый процесс active learning, который позволяет в десятки тысяч раз сократить объём размеченных данных, необходимых для тонкой настройки больших языковых моделей на сложных задачах — например, при модерации рекламного контента.

продолжить чтение

По следам GPT-5: как LLM все сильнее превращается в айфон

LLMки можно любить и ненавидеть, но нельзя отрицать того, что это что-то очень большое и сильно трансформирующее все вокруг. Я регулярно и помногу размышляю над AI-агентами и в целом траекторией genAI движения и после вчерашней презентации GPT-5 мой личный паззлик окончательно сложился. Все это очень похоже на то, что мы уже видели.И это — iPhone.

продолжить чтение

Оптимизация LLM: LoRA и QLoRA

Масштабируемые методы тонкой настройки для больших языковых моделей.С появлением ChatGPT стало очевидно, какими многообещающими могут быть большие языковые модели, способные понимать естественный язык и точно отвечать на запросы пользователей. Таким моделям присуще огромное количество параметров: современные LLM нередко содержат их более миллиарда. 

продолжить чтение

Новый приказ ФСТЭК: что нужно знать разработчикам Ai-сервисов для госсектора

Привет! Меня зовут Андрей, я руковожу отделом продуктов клиентской безопасности в Selectel

продолжить чтение

Cognition после покупки Windsurf предлагает сотрудникам выбор: уволиться с 9 зарплатами или 80-часовая рабочая неделя

Месяц назад ИИ-стартап Cognition приобрел интеллектуальную собственность, продукт и команду конкурента Windsurf. Сумма сделки не раскрывается, но детали стали известны на этой неделе благодаря расследованию The Information.После поглощения Windsurf компания Cognition уволила 30 человек, а оставшимся 200 сотрудникам поставила ультиматум до 10 августа:либо уходите с компенсацией в размере 9 месячных окладов,либо работаете по 80+ часов в неделю без выходных.

продолжить чтение

Авандок.ИИ Ассистент

Алексей БорщовМенеджер по продуктам искусственного интеллекта, «КОРУС Консалтинг»Крупные компании ежедневно генерируют, обрабатывают и хранят колоссальные объемы информации. По данным исследования IDC

продолжить чтение

Rambler's Top100