llm. - страница 17

llm.

Тысячи топ-менеджеров признали: ИИ не повлиял на производительность их компаний, несмотря на сотни миллиардов инвестиций

По данным опросов (NBER Working Paper №34836

продолжить чтение

6 инструментов для параллельного Claude Code: тестирую всё, чтобы вам не пришлось

Conductor, Crystal, Auto-Claude, Claude Squad, CCManager и Cursor 2.0 — честное сравнение с плюсами, минусами и рекомендациями по сценариям.Если некогда читать:Проблема: Один агент Claude Code — это медленно. Хочется запустить 5-7 задач параллельно, но каждый агент должен работать изолированно, не ломая код другим.Решение: Git worktrees — стандартный механизм изоляции. Вокруг него выросла целая экосистема инструментов.Кто побеждает (февраль 2026):СценарийИнструментПочему

продолжить чтение

Neurosymbolic AI: The Architecture of a Semantic Neural Network. How to Teach LLMs to Calculate

LLMs fail at elementary math. Corporations spend billions, but ultimately are forced to attach calculators to computing machines of incredible power. All attempts to fix this via Chain-of-Thought, fine-tuning on arithmetic tasks, or context expansion have failed.I conducted a series of experiments to understand why, and came to the conclusion that neural networks are simply not meant for discrete arithmetic. Their true purpose is continuous transformations.This article describes the implementation of a novel neural network architecture that combines the precision of symbolic AI with the generalization capabilities of LLMs. As always, experiments and code are included.I will traditionally skip the philosophical foundations that led to this solution.TL;DR: LLMs make arithmetic mistakes not due to a lack of data or parameters—neural networks are fundamentally not designed for discrete calculations. They evolved (much like the biological brain) for continuous transformations and pattern recognition. The solution is not to teach them to count, but to embed an algebraic processor.

продолжить чтение

Архитектуры мультиагентных систем: линейная, рой, оркестратор и гибридное решение — что выбрать для продакшена

продолжить чтение

Нейросимвольный ИИ: архитектура семантической нейросети. Как научить LLM считать

LLM ошибаются в элементарной математике. Корпорации тратят миллиарды, но в конечном счете вынуждены прикручивать калькуляторы к вычислительным машинам невероятной мощи. Все попытки исправить через Chain-of-Thought, fine-tuning на задачах счёта, увеличение контекста не сработали.Я провёл серию экспериментов чтобы понять почему, и пришел к выводу, что нейросети просто не предназначены для дискретной арифметики. Их предназначение непрерывные трансформации.

продолжить чтение

Wikontic: строим графы из текстов, используя онтологию и LLM

Привет, Хабр! Это Алла, я работаю исследователем в команде «Модели с памятью» Лаборатории когнитивных систем искусственного интеллекта Института AIRI и занимаюсь исследованиями на стыке графов знаний и языковых моделей. Ранее я уже писала на Хабре статью про построение графов знаний из текстов по мотивам одной из наших публикаций.Мы активно продолжаем работать дальше и создали Wikontic

продолжить чтение

RAG на PHP + Qdrant: быстрый MVP для внутренней базы знаний

В этой статье покажу, как мы собрали RAG-систему на PHP и Qdrant: выбрали векторную базу и LLM, настроили гибридный поиск и реализовали чат-бота на Symfony с использованием PHP фреймворка Neuron AI.К нам обратился клиент с задачей: сделать чат-бота для поиска информации по внутренней базе знаний (статьи, документация, корпоративные тексты). Главное требование - быстро собрать MVP, чтобы проверить гипотезу и принять решение о дальнейшем развитии системы. Первую версию запустили, получаем хорошие отзывы от пользователей, поэтому решил поделиться и, возможно, получить полезную обратную связь от сообщества.Стек и компоненты

продолжить чтение

Frontend Status: свежий дайджест фронтенда и AI — 18.02.2026

Frontend Status: Привет! Свежий дайджест фронтенда и AIПривет!Это пятый выпуск Frontend Status — дайджеста по фронтенд-разработке.В этом выпуске:Медиа:

продолжить чтение

От чат-бота к AI агенту: собираем локальную систему на LibreChat, Langflow и MCP

Всем привет! Меня зовут Николай Луняка. В прошлой статье мы строили локальную систему для транскрибации аудио, и многие из вас откликнулись на тему цифровой независимости. Сегодня продолжим эту линию и соберем агентную AI систему, которая работает локально.

продолжить чтение

Я спросил у AI: «Заменишь ли ты меня?» и написал сервис за 2 часа

Пора ли паниковать по поводу увольнения из‑за искусственного интеллекта?

продолжить чтение

1...10...151617181920...3040...187
Rambler's Top100