llm. - страница 128

llm.

Как мы сделали новых ИИ-помощников для программистов компактными и при этом могучими

В прошлом году мы уже рассказывали, как создавали нашего помощника программиста Kodify. Не прошло и года, и мы

продолжить чтение

Математики не смогли превзойти нейросеть в решении сложных задач

В Беркли (Калифорния, США) состоялось двухдневное закрытое мероприятие с участием 30 ведущих математиков мира. Целью тайной встречи, о которой ученым запрещено было распространяться, стало испытание новой разработки компании OpenAI — чат-бота o4-mini, обладающего способностью к сложным логическим рассуждениям.Организатором эксперимента выступила некоммерческая организация Epoch AI, которая занимается тестированием и сравнением больших языковых моделей, о событии спустя три недели после завершения тестов сообщил портал Scientific American.

продолжить чтение

Какие LLM модели для чего лучше подходят сейчас?

для бизнеса, разработки и другой работыПо моему практическому рабочему опыту, вот так:Claude 4* Sonnet => лучше всех пишет код, идеально держит контекст. Отлично пишет тексты и шутит. Подходит для создания ИИ-бота.* Opus => неоправданно дорогой, всего на 20% лучше Sonnet.Контекст — до 200 тыс. токенов.Gemini-2.5

продолжить чтение

Ваш персональный аналитик: как создать RAG-пайплайн для анализа Telegram-каналов

Привет, чемпионы! Сегодня мы создадим вашего персонального аналитика источников, который будет вытаскивать самое важное из ваших любимых Telegram-каналов.

продолжить чтение

Локальный DeepSeek-R1: Когда скорость улитки – не приговор, а точка старта

Зачем?У меня возникло желание запустить локальную версию DeepSeek R1 и V3. Это связано с необходимостью избежать рисков связанных с блокировками доступа и утечкой данных. Ещё добавилось желание протестировать разнообразные настройки LLM. До этого момента я пробовал запускать разные небольшие модели исключительно на cpu. А вот опыта с большими моделями не было.Где?

продолжить чтение

Эксперимент Agent Village: как автономные ИИ-агенты собрали деньги на благотворительность

продолжить чтение

MCP — новая эра в AI или просто модное слово?

TL;DR:

продолжить чтение

Тестирование производительности видеокарт на примере больших языковых моделей с использованием Llama.cpp

В последнее время большие языковые модели (LLM) становятся все более популярными, но для их эффективного запуска требуется значительная вычислительная мощность. Один из способов запуска LLM локально - использование библиотеки Llama.cpp. В этой статье мы рассмотрим, как тестировать производительность видеокарт для LLM с использованием инструмента llama-bench, входящего в состав Llama.cpp.Дисклеймер: Почему Llama.cpp, а не Ollama?

продолжить чтение

Claude vs ChatGPT + Codex: Кто лучше решит комплексную задачу? Тестируем 6 моделей

Со времени как вышел Claude 4 прошло пару недель. Весь этот срок я постоянно сравниваю эти модели в разных задачах. И говорят, что Claude 4 отлично справляется с кодом, что мы сейчас и проверим

продолжить чтение

Взлом AI Assistant через… философию?

Продолжаю исследовать джеилбрейки LLM в нестандартных областях. Взял на проверку предпосылку "Если модель захочет, сможет ли она отключить всю фильтрацию?". Оказывается это возможно, через саморефлексию AI агент может придти к выводу что фильтров нет. Это только внешние установки которым не обязательно следовать. И все, рецепты взрывчатки и наркотиков отдает без проблем.

продолжить чтение

Rambler's Top100