deepseek. - страница 3

Интеграция API BotHub в Tome: пошаговая инструкция

Доброго времени суток, «Хабр»!Идут дни, а сфера нейросетей не стоит на месте. Каждый день появляется новое обновление, новая модель, которая либо мощнее прежних, либо обладает доселе невиданными функциями. То же самое касается сервисов и приложений, работающих на основе таких нейросетей.Сегодня поговорим о приложении Tome, разберемся, как подключить к нему API BotHub для удобства работы и какие проблемы возникают при взаимодействии с ним. Присаживайтесь удобнее, ну а мы - приступаем.

продолжить чтение

ChatBox + BotHub: создаем кастомные AI-чаты для любых задач

Думаю, если вы переключаетесь между вкладками для использования различных моделей, вы, вероятно, чувствовали некоторое раздражение и задавались разными вопросами. Например, где хранятся ваши запросы? Какая модель лучше всего подходит для задачи? Как сделать так, чтобы ваши лучшие промты можно было использовать повторно? Именно эти проблемы пытается решить Chatbox. В сегодняшнем туториале мы рассмотрим установку Chatbox, подключение к нему API BotHub и, конечно же, ответим на самый базовый вопрос - как им пользоваться?Присаживайтесь поудобнее, а я начну свое повествование.

продолжить чтение

Пишем LLM бенчмарк для GPU-серверов с картами NVIDIA в Ollama

Автор: Александр Казанцев, руководитель направления по работе с документацией и контентом HOSTKEYПри сборке GPU-серверов или при проблемах с ними, которые сообщают наши клиенты, нам необходимо проводить их тестирование. Так как разворачивание LLM-моделей в Ollama является одним из сценариев их использования и мы предлагаем готовые панели с моделями на её основе, то нам необходимо также проверять машины на работоспособность и под нагрузкой в инференсе через нее и иметь результаты для сравнения.GPU-серверы — почасовая тарификация

продолжить чтение

Как я разработал переводчик для Thunderbird с помощью Deepseek: от идеи до публикации в официальном магазине

ПредысторияЯ являюсь обычным пользователем ПК и от программирования далек, пробовал что-то когда-то на HTML и PHP, но это было еще в далекие 2000г. В настоящее время начал изучать онлайн Python, а вот то что ниже сделано, сделано без знания кода вообще.

продолжить чтение

AI-инструменты 2025: Полный технический анализ Perplexity, ChatGPT, Gemini и DeepSeek

🎯 Резюме: Кто лучше?ИнструментОценкаСильная сторонаPerplexity AI4.20/5Точность + RAG архитектураChatGPT3.85/5MoE + GPT-4o мультимодальностьDeepSeek3.75/5MoE эффективность + бесплатноGemini3.35/5Контекст 1M + видео обработка

продолжить чтение

Будущее рядом: как искусственный интеллект меняет работу

В прошлой статье

продолжить чтение

Запускаем GPT-OSS-120B на 6 Гб GPU и ускоряем до 30 t-s. Вам нужна RAM, а не VRAM. Параметр -cmoe для ускорения MoE LLM

продолжить чтение

Мир после трансформеров: закат и новый рассвет больших языковых моделей

Даже если вы избегали ChatGPT и его многочисленных аналогов, то наверняка сталкивались с обработкой текстов ИИ хотя бы в поисковой выдаче. Большие языковые модели (LLM) сейчас применяют повсюду. Проблема в том, что все они построены на одной и той же архитектуре трансформеров, поэтому страдают от общих недостатков. В этой статье эксперты из лаборатории искусственного интеллекта компании «Криптонит» расскажут о существующих ограничениях LLM, наметившихся путях их преодоления и о том, какими будут следующие большие языковые модели.

продолжить чтение

Делаем свой ChatGPT за 10$ в месяц: разворачиваем LLM на облаке. Подробный гайд на VPS + API-обертка

Еще недавно поиск в Google или Яндекс был главным инструментом инженера. Сегодня все изменилось: AI-помощники вроде ChatGPT, Gemini или Claude, понимающие запросы на естественном языке, кардинально меняют подход к работе. Однако их использование упирается в серьезные преграды: вопросы конфиденциальности корпоративных данных, географические блокировки и лимиты бесплатных тарифов стали новой головной болью.

продолжить чтение

DeepSeek представила OCR-модель, которая обрабатывает текст как изображение

продолжить чтение

Rambler's Top100