llm.
Внедрение LLM в разработку ПО: стоит ли?
Привет, на связи Юлия Рогозина, аналитик бизнес-процессов Шерпа Роботикс. Сегодня я перевела для вас статью, тема которой касается именно использования Large Language Models (LLM) как части вашего продукта, а не использования ИИ как инструмента в процессе разработки (например, таких инструментов, как Cursor или Zed AI).
Топ 6 идей для ваших ML pet-проектов в 2025 году
Новый год — это идеальное время для перезагрузки и новых начинаний. Это уникальная возможность не только подвести итоги прошедшего года, но и заложить фундамент для будущих достижений. Если вы давно мечтали о собственном проекте в области машинного обучения, сейчас самое подходящее время, чтобы воплотить эту идею в жизнь.Я и сам когда‑то запустил свой собственный pet‑проект, который очень помог в моей карьере. Подробнее об этом я написал в своём telegram‑канале.
Считаем количество токенов для LLM в исходниках ядра Linux и не только…
Эта статья про новое расширение ахритектуры трансформеров – Titan от Google –, позволяющее расширить рамки LLM до 2 млн токенов, побудила поинтересоваться, сколько токенов, пригодных для LLM, содержат исходники колоссального софта. Какой открытый софт будем „препарировать“:MySQLVS Code
Причины возникновения галлюцинаций LLM
В данной статье будет представлен укороченный и упрощенный перевод статьи “A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions”. А именно перевод части, относящейся к причинам возникновения галлюцинаций. Упрощение состоит в том, что были опущены части, уходящие в конкретику. В этом переводе мы сосредоточимся на основных причинах возникновения галлюцинаций и примерах.
Исследование: ввести ложную медицинскую информацию в LLM оказалось удивительно легко
Смена всего 0,001% входных данных на дезинформацию заметно уменьшает точность ИИСуществует очевидная проблема: интернет переполнен дезинформацией, а большинство крупных языковых моделей обучаются на огромном количестве текстов, полученных из интернета.В идеале, если бы объём точной информации был значительно больше, то для лжи не осталось бы места. Но так ли это на самом деле? В новом исследовании
Security-RAG или как сделать AI Security tool на коленке
ЗатравочкаLLM-ки и LLM-агенты продолжают наводить шум. статьи про то как сделать очередной RAG или Агента продолжают клепаться (да блин даже мы одна из этих статей), huggingface выпускают smolagents, квантизация позволяет дойти LLM-кам до простых работяг и обывателей, давая им возможность в них потыкаться в той же LM studio или других приложениях.
Законы масштабирования нейронных языковых моделей
Инвестиции, открытие новых законов... Сотни лет прошло, а ничего не меняется...Эта статья от 23 января 2020 года не так известна, как "Всё, что вам нужно - это внимание
AI не справляется с высокоуровневыми историческими экзаменами: исследование показало лишь 46% точности
AI может превосходно справляться с определёнными задачами, такими как программирование или создание подкастов. Однако ему сложно сдать экзамен по истории на высоком уровне, как показало новое исследование.Команда исследователей разработала новый бенчмарк для проверки трёх ведущих моделей больших языков (LLM) — GPT-4 от OpenAI, Llama от Meta и Gemini от Google — на исторических вопросах. Этот бенчмарк, названный Hist-LLM, оценивает

