llm. - страница 123

llm.

ИИ-суперагенты: приближают ли они нас к AGI?

продолжить чтение

Я немного устал от SQL и решил попробовать себя в веб-разработке

Я дата-инженер, которому захотелось немного творчества. Писать сотни строк SQL на работе не всегда доставляет радость, поэтому решил углубиться в веб-разработку, чтобы иметь возможность сделать то, что можно "потрогать" руками и, возможно, поделиться этим с окружающими.В итоге родилась идея AI тьютора - смесь двух популярных нынче направлений Онлайн-обучение и AI. AI Тьютор - сервис генерации образовательного контента с возможностью проверки знаний и виртуальным помощником.

продолжить чтение

Генерируем commit message на базе шаблона при помощи локальной (и не только) LLM в консоле и без IDE

ПредысторияКак-то пару месяцев назад пришел ко мне в гости в коворкинг поработать удаленно мой давний приятель. Он пишет на Java и использует в своей работе IntelliJ IDEA. Помню, он долго восхищался новой на тот момент фичей встроенного AI Assistant - умением генерировать commit message.

продолжить чтение

Генерация юнит-тестов с LLM: если бы посуда мылась сама

Привет, Хабр. На связи Даниил Кобылкин и Тимофей Тимошевский. Мы фронтенд‑разработчики в Одноклассниках.

продолжить чтение

Иллюзия мышления: Почему «думающие» модели на самом деле не думают (и что об этом говорит новое исследование Apple)

продолжить чтение

ChatGPT делает нас глупее? Что показало новое исследование MIT и Кембриджа

продолжить чтение

MCP и будущее AI: что стоит знать сегодня, чтобы не отстать завтра

С тех пор как OpenAI внедрила функцию function calling в 2023 году, я всё чаще задумываюсь о том, что потребуется, чтобы по-настоящему разблокировать экосистему агентов и инструментов. По мере того как базовые модели становятся всё более интеллектуальными, возможности агентов взаимодействовать с внешними инструментами, данными и API всё больше фрагментируются: разработчики вынуждены реализовывать агентов с индивидуальной бизнес-логикой под каждую отдельную систему, в которой агент работает или с которой интегрируется.Очевидно, что необходим единый стандартный интерфейс для исполнения, извлечения данных и вызова инструментов.

продолжить чтение

Jay Knowledge Hub: от прототипа до промышленного PaaS создания баз знаний полного цикла

Привет, Хабр! Меня зовут Никита, я руководитель команды разработки умного поиска на основе генеративного AI в Just AI. В этой статье я расскажу о нашем опыте в умный поиск — как от mvp RAG-сервиса для Q&A бота нашей службы поддержки мы пришли к облачной платформе Jay Knowledge Hub (сокращенно KHUB), которая помогает нашим клиентам автоматизировать поиск по различным источникам знаний.Как все начиналось: прототип на базе RAGНаш основной продукт — диалоговая система для создания чат-ботов JAICP

продолжить чтение

Забудьте про Hugging Face и CLI — ставим Gemma 3 12B за 15 минут

Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft

продолжить чтение

15 минут — и у тебя свой LLM, который не утекает в облако и не стоит $20 в месяц

Недавно решил покопаться в локальных языковых моделях и наткнулся на новинку от Google DeepMind — Gemma 3 12B. Модель мощная, с открытой лицензией и, что особенно порадовало, спокойно запускается прямо на ноутбуке. Без серверов, клаудов и трат на аренду GPU.Чтобы всё это заработало без плясок с настройками, я взял LM Studio — простой и удобный интерфейс для работы с LLM, который буквально делает «запустил и поехали».Я написал этот материал для блога Minervasoft

продолжить чтение

Rambler's Top100