llm. - страница 118

llm.

Туториал: запускаем Hunyuan-A13B модель на vLLM и на llama.cpp

Недавно вышла новая модель - Hunyuan-A13B:https://huggingface.co/tencent/Hunyuan-A13B-Instruct-GPTQ-Int4 (это уже квант)

продолжить чтение

Веб-агенты, которые действительно понимают веб-сайты: как слой восприятия Notte решает проблему DOM

Фундаментальная проблема веб-агентов заключается не в автоматизации — а в восприятии. Как позволить LLM навигировать и действовать на веб-сайтах, погребённых в слоях HTML?Техническая проблема: несоответствие импеданса DOMВеб-агенты традиционно полагались на хрупкие подходы: парсинг DOM, CSS-селекторы и анализ HTML-структуры. Это создаёт фундаментальное несоответствие импеданса между тем, как LLM обрабатывают информацию (естественный язык) и тем, как структурированы веб-сайты (разметка).Рассмотрим типичный подход к веб-автоматизации:

продолжить чтение

Попытка поставить идеи и гипотезы на поток – швейцарский нож для стартапов

Привет, меня зовут Кирилл! Мы с друзьями давно увлекаемся идеями и экспериментами «в стол». Знакомо, когда возникает куча интересных мыслей, но потом они теряются, потому что сложно понять — кому это на самом деле нужно?

продолжить чтение

«Кошачья атака» на модель рассуждений показывает, насколько важна контекстная инженерия

Исследовательская группа обнаружила, что даже такие простые фразы, как «кошки спят большую часть своей жизни», могут существенно нарушить работу продвинутых моделей логического мышления, увеличив количество ошибок в три раза.

продолжить чтение

Новый алгоритм Sakana AI позволяет большим языковым моделям работать сообща для решения сложных задач

Японский стартап в области искусственного интеллекта Sakana AI разработал новый метод, который позволяет нескольким большим языковым моделям, таким как ChatGPT и Gemini, совместно решать одну и ту же задачу. Предварительные тесты показывают, что такой совместный подход превосходит работу отдельных моделей.

продолжить чтение

От понимания файнтюнинга LLM до файнтюнинга мультимодальных моделей

продолжить чтение

KoboldCpp — нейросеть для развлечений и работы у нас дома

продолжить чтение

Георгий Герганов, автор llama.cpp и звукового кейлогера

Многие пользуются YouTube, Netflix, но не подозревают о ключевых опенсорсных программах типа ffmpeg, которые работают на бэкенде этих сервисов. Похожая ситуация с нейронками, где многие знают программу Ollama

продолжить чтение

Почему Telegram может стать новым лидером в гонке ИИ

В гонке искусственного интеллекта доминируют гиганты с огромными вычислительными ресурсами — OpenAI, Google, Meta. Однако Telegram, благодаря сочетанию технологических активов, уникальных данных и амбициозного видения основателей, обладает шансами совершить прорыв. Как заявляет Павел Дуров: его брат Николай работает над «настоящим ИИ», способным «логически мыслить и понимать мир». В этой статье я напишу неочевидные потенциальные возможности мессенджера, которые могут обеспечить компании лидерство в AI и будущем AGI.

продолжить чтение

Text-to-LoRA: мгновенная адаптация трансформеров

😎 Следуй за белым кроликом 💊📌 Telegram @TheWeeklyBrief — краткие обзоры и подкасты 📰🎧🐇📌 GitHub Pages — углублённый разбор статей, ныряем в кроличью нору 📝💻🐾АннотацияИсследователи Sakana AI разработали Text-to-LoRA (T2L)

продолжить чтение

Rambler's Top100