llm. - страница 134

llm.

SWE-Agent: как AI-ассистенты меняют правила игры в разработке

Искусственный интеллект в программировании уже давно вышел за рамки простых подсказок кода. Современные инструменты, такие как GitHub Copilot, интегрированные в Visual Studio Code, способны не только дописывать код, но и выполнять команды в терминале, запускать сборки и тесты прямо из редактора. Вот еще Open AI вчера выпустил Codex, это адаптация моего поста про SWE-Agent.

продолжить чтение

Google внедряет новую ИИ-функцию для защиты от мошенничества в Chrome

Google внедряет в Chrome новую защитную функцию, которая использует встроенную LLM Gemini Nano для обнаружения и блокировки мошенничества при просмотре веб-страниц.

продолжить чтение

Meta* откладывает запуск мощной языковой модели ИИ Behemoth

Компания Meta отложила запуск своей самой мощной модели искусственного интеллекта, известной под кодовым названием «Behemoth». Причины такого решения — внутренние сомнения в потенциале модели и растущая напряжённость внутри компании.

продолжить чтение

NotebookLM: Как освоить сложные темы в 10 раз быстрее

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.

продолжить чтение

Что ждать от Google I-O любителям ИИ

продолжить чтение

Часть 4. Обзор технологий RAG для LLM: аугментация извлеченных данных

Продолжаю адаптированный перевод статьи китайских исследователей Retrieval-Augmented Generation for Large Language Models: A Survey (ссылка на первую часть — здесь, на вторую часть — здесь, третью часть — здесь). В этой, четвертой части авторы совсем скромненько, словно тренировались заполнять налоговую декларацию, разбирают технологии аугментации извлеченных данных.

продолжить чтение

ИИ в греческих буквах и транслитерация промптов

продолжить чтение

Как «Маленький принц» и искусственный интеллект помогают нам лучше понять развитие речи в мозге

Детям нужно всего несколько миллионов слов, чтобы овладеть языком, но механизмы мозга, лежащие в основе этого процесса, до сих пор до конца не изучены. Новое исследование, проведённое Meta* AI и больницей Ротшильда в Париже, проливает свет на то, как в мозге формируются языковые представления, и выявляет поразительные параллели с большими языковыми моделями ИИ.

продолжить чтение

Как LLM могут помочь аналитикам баз данных в работе с SQL-запросами

продолжить чтение

Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI

Мы с вами подобрались к заключительной части статьи-инструкции об организации распределённого инференса и шардирования LLM в домашних условиях. Мы уже запустили модель Gemma 3 и протестировали API, самое время настроить авторизацию и удобный веб-интерфейс для взаимодействия с нашей моделью. Им станет бесплатный Open WebUI. В конце статьи попросим домашнюю LLM подвести итоги всей проделанной работы, а также поговорим о планах по развитию проекта.

продолжить чтение

Rambler's Top100