llm. - страница 226

llm.

Внедрение LLM в разработку ПО: стоит ли?

Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, тема которой касается именно использования Large Language Models (LLM) как части вашего продукта, а не использования ИИ как инструмента в процессе разработки (например, таких инструментов, как Cursor или Zed AI).

продолжить чтение

Топ 6 идей для ваших ML pet-проектов в 2025 году

Новый год — это идеальное время для перезагрузки и новых начинаний. Это уникальная возможность не только подвести итоги прошедшего года, но и заложить фундамент для будущих достижений. Если вы давно мечтали о собственном проекте в области машинного обучения, сейчас самое подходящее время, чтобы воплотить эту идею в жизнь.Я и сам когда‑то запустил свой собственный pet‑проект, который очень помог в моей карьере. Подробнее об этом я написал в своём telegram‑канале.

продолжить чтение

Обработка каталога и товаров на LLM

продолжить чтение

Считаем количество токенов для LLM в исходниках ядра Linux и не только…

Эта статья про новое расширение ахритектуры трансформеров – Titan от Google –, позволяющее расширить рамки LLM до 2 млн токенов, побудила поинтересоваться, сколько токенов, пригодных для LLM, содержат исходники колоссального софта. Какой открытый софт будем „препарировать“:MySQLVS Code

продолжить чтение

Причины возникновения галлюцинаций LLM

В данной статье будет представлен укороченный и упрощенный перевод статьи “A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions”. А именно перевод части, относящейся к причинам возникновения галлюцинаций. Упрощение состоит в том, что были опущены части, уходящие в конкретику. В этом переводе мы сосредоточимся на основных причинах возникновения галлюцинаций и примерах.

продолжить чтение

Обработка и сравнение товаров маркетплейсов на LLM

продолжить чтение

Исследование: ввести ложную медицинскую информацию в LLM оказалось удивительно легко

Смена всего 0,001% входных данных на дезинформацию заметно уменьшает точность ИИСуществует очевидная проблема: интернет переполнен дезинформацией, а большинство крупных языковых моделей обучаются на огромном количестве текстов, полученных из интернета.В идеале, если бы объём точной информации был значительно больше, то для лжи не осталось бы места. Но так ли это на самом деле? В новом исследовании

продолжить чтение

Security-RAG или как сделать AI Security tool на коленке

ЗатравочкаLLM-ки и LLM-агенты продолжают наводить шум. статьи про то как сделать очередной RAG или Агента продолжают клепаться (да блин даже мы одна из этих статей), huggingface выпускают smolagents, квантизация позволяет дойти LLM-кам до простых работяг и обывателей, давая им возможность в них потыкаться в той же LM studio или других приложениях.

продолжить чтение

Законы масштабирования нейронных языковых моделей

Инвестиции, открытие новых законов... Сотни лет прошло, а ничего не меняется...Эта статья от 23 января 2020 года не так известна, как "Всё, что вам нужно - это внимание

продолжить чтение

AI не справляется с высокоуровневыми историческими экзаменами: исследование показало лишь 46% точности

AI может превосходно справляться с определёнными задачами, такими как программирование или создание подкастов. Однако ему сложно сдать экзамен по истории на высоком уровне, как показало новое исследование.Команда исследователей разработала новый бенчмарк для проверки трёх ведущих моделей больших языков (LLM) — GPT-4 от OpenAI, Llama от Meta и Gemini от Google — на исторических вопросах. Этот бенчмарк, названный Hist-LLM, оценивает

продолжить чтение