Программирование. - страница 48

AI-безопасность: зачем нужен слой на C рядом с Python-детекторами

AI Security Gold RushСейчас каждый делает решения для безопасности AI.Последний год я анализировал разные решения и вот к какому выводу я пришёл:Они все поразительно похожи:Написаны на PythonML-классификаторы для детекцииREST API обёртка50-200мс задержкаДесятки зависимостейОблачный деплойИ вот неудобная правда:Они сами становятся векторами атак.Ирония Python-решений для безопасностиКогда ваш слой безопасности:Имеет 50+ зависимостей (каждая — потенциальная CVE)Добавляет 50-200мс к каждому запросу (приглашение для DDoS)

продолжить чтение

Ollama Tutorial: How to Run Local AI Models with Ollama

Ollama has become the standard for running Large Language Models (LLMs) locally. In this tutorial, I want to show you the most important things you should know about Ollama.Watch on YouTube: Ollama Full TutorialWhat is Ollama?Ollama is an open-source platform for running and managing large-language-model (LLM) packages entirely on your local machine. It bundles model weights, configuration, and data into a single Modelfile package. Ollama offers a command-line interface (CLI), a REST API, and a Python/JavaScript SDK, allowing users to download models, run them offline, and even call user-defined functions. Running models locally gives users privacy, removes network latency, and keeps data on the user’s device.Install OllamaVisit the official website to download Ollama 

продолжить чтение

Проклятие аналитического ума: Как айтишнику вырваться из склепа перфекционизма и построить бизнес-лабиринт

Таймер второго пришествияТьма сгущается над монитором.

продолжить чтение

IQuest-Coder: Новая open-source модель для кодинга

продолжить чтение

Базовый RAG-компонент для локального семантического поиска на Питоне

quad_rag_core — лёгкое Python-ядро для локального RAG, которое автоматически отслеживает изменения в папках, индексирует их в Qdrant и поддерживает эмбеддинги в актуальном состоянии. Изначально проект задумывался как плагин для MCP (Model Context Protocol), но стал универсальной основой для любой системы локального семантического поиска.Зачем это нужно

продолжить чтение

Новогодний детокс для мозга: почему мы пишем «2025» в 2026-м? (и Matlab-эксперимент)

Аннотация Сегодня 2 января 2026 года . Вы снова написали в дате «2025».Прекратите себя ругать. Вы только что стали участником массового эксперимента по когнитивной инерции. Ваш мозг — не совершенный процессор, а система с памятью и трением, и он физически не может мгновенно переключиться на новую временную парадигму.Я предлагаю взглянуть на эту ситуацию под необычным углом: как на задачу дискретной математики и теории управления. Резкая смена года — это «ступенчатое воздействие» на систему «мозг». А его реакция — классический «переходной процесс», который можно промоделировать и визуализировать.

продолжить чтение

Анализ готового шаблона типового промта от Claude

Возможно это было уже давно, но я увидел только сегодня.А именно, когда начинается новый чат в Claude, то там появляются такие подменюшки под окном для чатаWrite - Learn - Code - Life Stuff - Claude’s Choice

продолжить чтение

Машина, которая никогда не останавливается: как одно предложение поставило предел человеческому познанию

Аннотация

продолжить чтение

Новый инерциальный MEMS-датчик LSM6DSV320X от ST c искусственным интеллектом для распознавания активности и ударов

продолжить чтение

Как налоговый юрист написал сервис для расчета пени по НДС с помощью LLM, не зная Python

ВступлениеЯ налоговый юрист и автор телеграм-канала «Налоговый Инсайдер». В моей работе есть рутинные задачи, которые сложно автоматизировать стандартными средствами вроде Excel. Одна из таких задач — расчет пени по НДС при подаче уточненной налоговой декларации.

продолжить чтение