«Я не матерюсь»: при чём тут очки Кларка Кента и почему попытка быть вежливым превращается в провал
В чем, собственно, проблемаЕсть интересная позиция, когда употребление мата рассматривается как признак невысокого интеллекта, плохого воспитания, бескультурья или и вовсе как маркер человека «низкого качества». Очевидно, что люди, разделяющие такую точку зрения, сами мат не употребляют, описывая свою позицию формулировкой: «Я не матерюсь». Правдивость этого заявления в целом подтверждаема — мат, а именно обсценная лексика, в речи действительно отсутствует. Любопытно, однако, что присутствует в ней — не всегда, но нередко — поведение, маскирующее такую лексику, позволяющее превратить ху*чить
Ваш ноутбук пока не готов к LLM, но скоро это изменится
Бьюсь об заклад, что ПК в вашем офисе вряд ли потянут большие языковые модели (LLM).
Тенденции в электронной музыке
Отчёт Международного музыкального саммита за 2025 год ясно показывает, что электронная музыка переживает свой расцвет.Цифры говорят сами за себя:Мировая индустрия электронной музыки в 2024 году выросла до 12,9 млрд долларовСтримминг: большая доля глобальных стримов Spotify и Apple Music приходится на электронные композиции. На SoundCloud количество прослушиваний электронных треков выросло на 14%. Появилось 566 миллионов новых поклонников электронной музыки на Spotify, YouTube, TikTok.
Почему внедрение LLM в АИС «Налог-3» неизбежно — и что это изменит в налоговом контроле
После моей статьи про АИС «Налог-3» (как одну из самых мощных государственных IT-систем России) в комментариях больше всего спорили не про масштабы данных и вопроса, «видит ли ФНС всё». Основной скепсис вызвал мой тезис о необходимости внедрения больших языковых моделей (LLM) в работу налоговых органов. Основной аргумент в противовес моей позиции звучал так: «Зачем там нужен Искусственный Интеллект? Всё формализовано, достаточно жестких алгоритмов и грамотных шаблонов. Экспертная система справится сама, не надо усложнять».
Ollama Tutorial: How to Run Local AI Models with Ollama
Ollama has become the standard for running Large Language Models (LLMs) locally. In this tutorial, I want to show you the most important things you should know about Ollama.Watch on YouTube: Ollama Full TutorialWhat is Ollama?Ollama is an open-source platform for running and managing large-language-model (LLM) packages entirely on your local machine. It bundles model weights, configuration, and data into a single Modelfile package. Ollama offers a command-line interface (CLI), a REST API, and a Python/JavaScript SDK, allowing users to download models, run them offline, and even call user-defined functions. Running models locally gives users privacy, removes network latency, and keeps data on the user’s device.Install OllamaVisit the official website to download Ollama
Кроим ДНК на Python — CRISPR gRNA finder, Часть I: Введение и базовый поиск
CRISPR-Cas9Часть I: Введение и базовый поиск (вы тута)Часть II: Скоринг, off-target и работа с реальными данными (скоро)Как я дошёл до жизни такой?Несколько лет назад я наткнулся на статью про CRISPR-Cas9
Joomla-дайджест. 2-е полугодие 2025 года
Все главные новости из мира Joomla с июля по декабрь 2025 года в одной статье. Я честно пытался напрячь самые разные ИИ сортировкой постов по смыслу и, к сожалению, ни один из них не справился с этой задачей так, как нужно мне. Поэтому, напрягая собственный интеллект, представляю читателю наш дайджест, который обозревает новости, расширения, шаблоны и статьи из мира Joomla. Прошлый выпуск вы можете прочитать здесь. СодержаниеГлавные новости о JoomlaНовости Joomla-сообществаЭлектронная коммерция на Joomla
