llm.
Я, робот или как использовать генеративный ИИ для своего первого пет-проекта
Привет, Хабр!На новогодних праздниках исполнил свою давнюю мечту, собрал на Python сервис, который показывает случайный эпизод любимого сериала «Друзья» (Friends). Хостится локально на мини-ПК с Raspberry Pi (Debian 11), пока доступен только для домашних по WiFi.Решить "проблему белого листа" помог Claude 3.5 Sonnet, он же написал весь код и отвечал на мои глупые вопросы, помогал разобраться почему все не заработало с первого раза 😅
Большие Физические Модели: На пути к совместному подходу с использованием Больших Языковых Моделей
Здравствуйте! Меня зовут Богдан, я являюсь автором телеграм канала про нейросети в телеграме, посчитал эту статью очень интересной для перевода, приятного прочтения Аннотация
Тренды ИИ-2025
Всем привет! Я Федор Горбунов, руководитель направления машинного обучения в Doubletapp. Сегодня поговорим о том, какие значимые для искусственного интеллекта события произошли в 2024 году и попробуем спрогнозировать вектор развития отрасли в будущем.
Улучшаем RAG с помощью графов знаний
Знакомство с RAG и связанными с ним проблемамиГенерация с дополненной выборкой (RAG) — это метод, который соединяет внешние источники данных для улучшения вывода больших языковых моделей (LLM). Этот метод идеально подходит для LLM для доступа к частным или специфичным для предметной области данным и решения проблем, связанных с галлюцинациями. Поэтому RAG широко используется для поддержки многих приложений GenAI, таких как чат-боты AI и
В Ollama появилась новая модель Phi-4
Phi-4 — новая открытая модель, разработанная Microsoft и уже доступная в Ollama (https://ollama.com/library/phi4).
LLM это не AI
Ответы LLM недетерминированны – можно задать один и тот же вопрос несколько раз и каждый раз получать разные ответы.Например, стандартный вопрос из тестов на IQ:* Start with a full cup of black coffee (no milk) and drink one-third of it. * Now pour into the cup an amount of milk equal to the coffee you have just drunk, and stir well. * Now drink a further half of the resultant mixture. * Now pour into the cup a further amount of milk equal to the mixture you have just drunk and stir well again. * Now drink one-sixth of the resultant mixture. * Now pour into the cup a further amount of milk equal to the mixture you have just drunk, stir well, and finally, drink the whole cup of liquid. Have you drunk more milk or more coffee in total? Ответ:
Практический кейс: как применять ML и GPT для поиска дубликатов в базе данных
Привет! Я Давид Акопян, занимаюсь интеграциями ML, GPT и консалтингом. Сейчас работаю тимлидом продуктовой аналитики в Авито. Ранее был опыт в:EY операционном консалтинге в сфере ретейла. Консультировал такие компании как Магнит, Детский Мир, Аскона, МВидео, НЛМК;E-groccery-стартапе;был тимлидом аналитики обычной и экспресс-доставки Яндекс.Маркета; а еще пробовал себя в различных проектах во фрилансе.
PPTAgent: Генерация и оценка презентаций, выходящая за рамки преобразования текста в слайды
АннотацияАвтоматическая генерация презентаций из документов представляет собой сложную задачу, требующую баланса между качеством контента, визуальным дизайном и структурной связностью. Существующие методы в основном сосредоточены на улучшении и оценке качества контента изолированно, часто упуская из виду визуальный дизайн и структурную связность, что ограничивает их практическую применимость. Для решения этих ограничений мы предлагаем PPTAgent, который комплексно улучшает генерацию презентаций за счет двухэтапного подхода, основанного на редактировании, вдохновленного рабочими процессами человека.
Повторяющиеся команды «напиши код лучше» могут ускорить код, сгенерированный AI, в 100 раз
Простая просьба «напиши код лучше» помогла Sonnet 3.5 создать код, работающий в 100 раз быстрее, чем его первая версия, при этом добавив неожиданные функции, обычно встречающиеся в корпоративном программном обеспечении.Старший научный сотрудник BuzzFeed Макс Вульф недавно провел эксперимент: что происходит, когда вы неоднократно просите Claude 3.5 «напиши код лучше»? Результаты оказались неожиданными — не только с точки зрения прироста производительности, но и в том, что LLM решил, что означает «лучший».

