Серия «ИИ, ИТ и ПО»

6

Архитектура вместо синтаксиса: CodeSpeak — язык программирования следующего поколения, использующий силу LLM спецификаций

Серия ИИ, ИТ и ПО

Команда разработчиков под руководством Андрея Бреслава, российского разработчика и автора языка программирования Kotlin, представила публичную альфа-версию нового инструмента для разработчиков — CodeSpeak. Платформа позиционируется как язык программирования нового поколения, в котором инженеры пишут спецификации на английском языке, а нейросети берут на себя генерацию, тестирование и рефакторинг исполняемого кода. Полноценное внедрение инструмента позволяет сократить объем кодовой базы в проектах в пять-десять раз. Технология поддерживает интеграцию в существующие сложные проекты на Python.

ИИ-язык, созданный для людей

CodeSpeak — язык программирования нового поколения на базе LLM

CodeSpeak — язык программирования нового поколения на базе LLM

Переход от кода к управлению смыслом

В феврале 2026 года проект CodeSpeak перешел в стадию открытого альфа-тестирования, предложив инженерам концепцию поддержания спецификаций вместо исходного кода. Платформа представляет собой консольную утилиту, которая интегрируется в рабочее окружение и выступает прослойкой между разработчиком, пишущим требования на английском языке, и большой языковой моделью, которая эти требования реализует. В качестве основного движка генерации CodeSpeak использует модель Claude Opus 4.6 от компании Anthropic.

Основной метрикой эффективности CodeSpeak разработчики называют кратное уменьшение объема проекта, с которым напрямую взаимодействует человек. На примере перевода существующих open-source библиотек под управление платформы, объем исходных файлов сокращается в среднем от шести до десяти раз. Человеку остается поддерживать только короткий текстовый документ, описывающий суть алгоритма, в то время как техническая реализация скрыта под капотом системы тестирования и сборки.

В отличие от популярных чат-ботов и ИИ-агентов, CodeSpeak ориентирован не на быстрое прототипирование, а на долгосрочную поддержку продакшен-систем. Платформа изначально создавалась для работы в командах и подразумевает управление сложной архитектурой. Система умеет разворачивать проекты с нуля, однако ее главная особенность заключается в способности встраиваться в существующие кодовые базы и локально перехватывать управление отдельными модулями, не нарушая работу остального приложения.

Эволюция абстракций: от Kotlin к спецификациям

Переход к разработке на естественном языке стал для Андрея Бреслава логичным продолжением его предыдущей работы. Во время работы в JetBrains в 2010-х годах он спроектировал язык Kotlin с целью избавить Java-разработчиков от избыточного шаблонного кода. В то время синтаксис Kotlin позволил автоматизировать множество рутинных операций на уровне компилятора, сделав программы более читаемыми.

С развитием больших языковых моделей проблема избыточности вышла на новый уровень. По мнению Бреслава, огромный пласт современного кода является очевидным не только для инженера, но и для алгоритмов машинного обучения. Если раньше компилятору требовались точные синтаксические конструкции для понимания задачи, то сегодня нейросеть способна извлечь нужную техническую реализацию из своего внутреннего представления, обученного на всем мировом открытом коде. Это делает ручное написание стандартных алгоритмов неэффективной тратой времени.

При разработке CodeSpeak команда исходила из того, что программирование исторически двигалось по пути повышения уровня абстракций: от машинных кодов к ассемблеру, затем к языкам высокого уровня вроде C и Java. CodeSpeak рассматривается как следующий шаг в этой иерархии, где уровень абстракции поднимается до естественного языка, а языковая модель выполняет роль сверхмощного компилятора, генерирующего итоговую логику.

Архитектура файлов и автоматическое тестирование

Процесс разработки в CodeSpeak кардинально отличается от классического цикла. Точкой входа служит файл с расширением .cs.md, содержащий спецификацию конкретного модуля. Инженер описывает в нем структуру данных, логику обработки и форматы вывода. После запуска команды сборки система анализирует этот файл, собирает контекст проекта и передает план действий языковой модели.

Важнейшим элементом архитектуры платформы является автономное тестирование. В процессе сборки CodeSpeak не просто генерирует код, но и самостоятельно пишет модульные тесты для проверки заявленных в спецификации требований. Если тесты не проходят, система итеративно исправляет сгенерированный код до тех пор, пока функциональность не будет полностью соответствовать тексту. Для разработчика процесс выглядит как компиляция: на входе подается текстовое описание, на выходе получается рабочий и протестированный модуль.

В текущей версии система глубоко интегрирована с экосистемой Python и менеджером пакетов uv. Инструмент автоматически управляет виртуальными окружениями и зависимостями, позволяя создавать полноценные веб-приложения, например, на базе фреймворка Django, буквально из одного файла спецификации.

Анатомия спецификации: как ИИ понимает задачу

Чтобы понять, как абстрактный текст превращается в детерминированную логику, достаточно взглянуть на структуру типичного исходника CodeSpeak. На прикрепленном к статье демонстрационном видео показан процесс работы с платформой, где разработчик оперирует исключительно такими текстовыми контрактами.

Допустим, нам нужно написать конвертер для разбора сохраненных почтовых сообщений. Вместо написания десятков строк на Python разработчик создает файл eml_converter.cs.md со следующим содержимым:

# EmlConverter

Converts RFC 5322 email files (.eml) to Markdown using Python's built-in `email` module.

## Accepts

`.eml` extension or `message/rfc822` MIME type.

## Output Structure

1. **Headers section**: From, To, Cc, Subject, Date as `**Key:** value` pairs

2. **Body**: plain text preferred; if only HTML, convert to markdown

3. **Attachments section** (if any): list with filename, MIME type, human-readable size

## Parsing Requirements

- Decode RFC 2047 encoded headers (e.g., `=?UTF-8?B?...?=`)

- Decode body content (base64, quoted-printable)

Из этой спецификации система автоматически генерирует два артефакта: непосредственно исполняемый Python-компонент (например, eml_converter.py) и набор юнит-тестов (test_eml_converter.py). Система самостоятельно прогоняет тесты и убеждается, что функция корректно обрабатывает структуру файлов, извлекает нужные заголовки и не падает при отсутствии вложений.

Главная ценность такого подхода заключается в жесткой изоляции. Так как спецификация предельно четкая и имеет строгие контракты ввода-вывода, ИИ-агенту не нужно выдумывать, что именно реализовать, или галлюцинировать дополнительный функционал. Нейросеть ограничена рамками Markdown-файла. Если спустя время разработчику понадобится добавить извлечение даты получения письма, он просто допишет одну строку в раздел «Output Structure» в .cs.md файле. После команды сборки CodeSpeak обновит исключительно eml_converter.py и его тесты, совершенно не затрагивая остальную кодовую базу проекта.

Режим частичной интеграции и перевод легаси-кода под управление спецификациями

Понимая, что переписать существующие энтерпрайз-проекты с нуля практически невозможно, создатели CodeSpeak предусмотрели возможность частичной интеграции. В так называемом смешанном режиме (Mixed Mode) разработчик может инициализировать CodeSpeak внутри старого репозитория и строго ограничить список файлов, с которыми системе разрешено взаимодействовать. Это позволяет внедрять новые функции через текстовые спецификации, не подвергая риску устоявшуюся архитектуру.

Для работы с уже написанным кодом реализован механизм автоматического реверс-инжиниринга и передачи управления (команда takeover). Инженеру достаточно указать утилите конкретный исходный файл: система проанализирует алгоритмы и извлечет их бизнес-логику, сгенерировав для нее новый текстовый Markdown-файл со спецификацией. В официальном блоге проекта приводится показательный пример с конвертером форматов из библиотеки Microsoft MarkItDown, где CodeSpeak успешно превратил сотни строк Python-кода в лаконичное текстовое описание правил парсинга.

Как только существующий код переведен под контроль платформы, править оригинальные исходники вручную больше не нужно. Если в дальнейшем потребуется, например, добавить обработку нового поля в почтовом сообщении, разработчик просто вписывает одно дополнительное требование в Markdown-спецификацию. Опираясь на это обновление, CodeSpeak самостоятельно перепишет исходный код конвертера, создаст нужные вспомогательные методы и расширит тестовую базу для проверки новых требований.

Проблема потерянного контекста в ИИ-кодинге

Архитектура CodeSpeak решает одну из главных проблем современных ИИ-помощников вроде Cursor или GitHub Copilot. При использовании агентов инженер формулирует свои намерения в интерфейсе чата. Агент выдает готовый код, который затем отправляется в репозиторий проекта. При этом сам диалог, содержащий истинный смысл и бизнес-логику решения, теряется навсегда.

Бреслав отмечает, что при таком подходе коллеги разработчика видят только результат работы машины, а не изначальное намерение. Код становится языком общения между инженерами, хотя изначально он генерировался машиной для машины. В долгосрочной перспективе это приводит к усложнению код-ревью и потере контроля над архитектурой, так как тестировать и проверять огромные массивы сгенерированного кода без понимания изначальной логики практически невозможно.

Платформа CodeSpeak меняет этот парадокс, фиксируя диалог с ИИ в виде статических файлов спецификаций. Спецификация становится главным артефактом, подлежащим контролю версий и код-ревью. Команда обсуждает и утверждает смысловую часть алгоритма, оставляя валидацию синтаксиса на откуп автоматизированным тестам.

Следующий уровень абстракции: ИИ-агенты как авторы спецификаций

Подход с использованием формальных спецификаций решает проблему масштабирования и поддержки больших кодовых баз, однако ручное создание таких документов, вероятно, окажется лишь промежуточным этапом в эволюции разработки. Логика развития инструментов на базе больших языковых моделей указывает на то, что в обозримом будущем инженеры перестанут писать даже сами спецификации.

Вместо структурированных файлов разработчик будет формулировать бизнес-требования на свободном естественном языке — в виде высокоуровневых продуктовых пожеланий или пользовательских историй. ИИ-агенты возьмут на себя роль системных аналитиков: они будут переводить неструктурированный текст от человека в строгие формальные спецификации. Этот процесс станет логичным развитием механизма реверс-инжиниринга, который уже сейчас используется в CodeSpeak для генерации контрактов из старого кода. Сформировав спецификацию, машина самостоятельно сгенерирует по ней исполняемый код и тесты.

В такой парадигме роль программиста кардинально меняется. Навык написания формальных контрактов с нуля будет требоваться крайне редко, уступая место навыку аналитического чтения. Главной задачей разработчика станет умение читать спецификации, понимать заложенную в них архитектуру и верифицировать логику. Человеку предстоит выступать в роли валидатора, который проверяет, правильно ли ИИ-агент интерпретировал изначальную бизнес-идею, прежде чем эта спецификация превратится в работающий продукт. Фокус профессии окончательно сместится от создания строк кода или текста к экспертной оценке и управлению смыслом.

Иллюзия программирования естественным языком и преждевременные похороны джуниоров

Развитие ИИ-агентов породило в индустрии феномен, который западные разработчики в шутку окрестили vibe-coding — подходом, при котором человек просто описывает желаемый результат текстом, а нейросеть выдает готовое приложение. На фоне резкого скачка возможностей моделей многие компании начали замораживать наем младших разработчиков, ошибочно полагая, что алгоритмы способны полностью заменить начинающих специалистов.

В большом интервью, видео которого представлено ниже, Андрей Бреслав прямо называет массовый отказ от найма джуниоров глупой и временной ошибкой рынка. По его словам, управленцы сейчас ослеплены хайпом вокруг ИИ-инструментов, но эта эйфория неизбежно пройдет, когда индустрия столкнется с необходимостью поддерживать сгенерированные проекты на длинной дистанции. Рано или поздно бизнес осознает, что для развития технологий в индустрию должен постоянно поступать приток новых людей.

Главная проблема бездумного делегирования заключается в потере контроля. Бреслав подчеркивает, что если всю архитектурную работу начнут выполнять исключительно модели, а люди перестанут понимать, как именно работает код, это приведет к потере субъектности инженера. Задача человека — управлять так называемой «сущностной сложностью» (essential complexity), точно формулировать намерения и принимать технические решения. Машина выступает лишь исполнителем, и для корректной постановки задач ей по-прежнему требуется полноценный инженерный склад ума.

Начинающим разработчикам создатель Kotlin советует не поддаваться панике, а извлекать из ситуации выгоду. С одной стороны, необходимо в совершенстве освоить новые ИИ-инструменты, чтобы многократно повысить свою продуктивность. С другой — использовать освободившееся время для максимально глубокого погружения в фундаментальные, хардкорные основы программирования. Умение разобраться в том, как всё устроено «под капотом», вскоре станет редкой и крайне востребованной экспертизой на рынке, переполненном операторами нейросетей.

Ближайшие перспективы проекта

На данный момент CodeSpeak имеет статус альфа-версии и требует от пользователей готовности к техническим шероховатостям. Команда проекта фокусируется на улучшении механизмов синхронизации: система должна гарантировать, что при удалении кода его всегда можно в точности восстановить из спецификации, а любые изменения текста транслируются в адекватные изменения архитектуры. Несмотря на раннюю стадию, инструмент уже обозначает новый вектор развития индустрии, где главной компетенцией инженера становится умение структурировать сложность и управлять намерениями, а не владение синтаксисом конкретных языков программирования.

Источники

  • CodeSpeak: Software Engineering with AI — CodeSpeak

  • Андрей Бреслав — российский программист, один из создателей языка программирования Kotlin (руководитель группы разработчиков в компании JetBrains), сооснователь сервиса подбора психологов Alter.ru, основатель CodeSpeak.

Показать полностью 1 2
26

Нейросети против открытого кода: Malus автоматизировал легальный обход лицензий1

Серия ИИ, ИТ и ПО

Проект Malus запустил автоматизированный сервис, использующий две изолированные группы нейросетей для переписывания библиотек с открытым исходным кодом. Технология позволяет легально удалять оригинальные лицензии и делать программное обеспечение проприетарным, решая проблему юридических рисков корпоративного сектора, которая оценивается в миллионы долларов ежегодно.

«Чистая комната» как услуга.

Наконец-то свобода от лицензионных обязательств открытого кода. Авторы: Mike Nolan Источник: MalusCorp

Наконец-то свобода от лицензионных обязательств открытого кода. Авторы: Mike Nolan Источник: MalusCorp

Наши проприетарные ИИ-роботы самостоятельно воссоздают любой проект с открытым кодом с нуля. Результат? Юридически независимый код с удобной для корпораций лицензией. Никакого указания авторства. Никакого копилефта. Никаких проблем. Авторы: Mike Nolan Источник: MalusCorp

Алгоритмическая нейтрализация юридических обязательств

Сервис Malus предлагает бизнесу механизм полного избавления от условий строгих лицензий вроде AGPL, GPL или правил обязательной атрибуции Apache. Клиент загружает файл-манифест с зависимостями своего проекта и получает функциональные аналоги нужных пакетов. Итоговый продукт юридически очищен от прав оригинальных создателей и передается заказчику под новой проприетарной лицензией MalusCorp-0, которая не требует указания авторства и позволяет корпорациям распоряжаться алгоритмами по своему усмотрению.

В основе системы лежит автоматизированный процесс так называемой «чистой комнаты». Первая группа ИИ-агентов изолированно анализирует исключительно публичную документацию, спецификации и интерфейсы оригинального программного обеспечения. Вторая группа, физически отгороженная от первой и не имеющая доступа к исходным текстам, пишет код с нуля на базе составленного технического задания. Это исключает прямое копирование и переводит процесс из разряда плагиата в категорию независимого воссоздания.

Стоимость услуги рассчитывается динамически по тарифу один цент за каждый килобайт распакованного исходного пакета. По расчетам системы, очистка популярной библиотеки маршрутизации express обойдется в 73 цента, в то время как крупный пакет lodash будет стоить чуть менее 14 долларов.

Прецедент вековой давности: как закон 1879 года легализует машинный код

Идея проекта не является юридической новацией. Она базируется на американском судебном прецеденте Baker v. Selden 1879 года, который жестко разделил концепцию и форму ее выражения. Закон об авторском праве защищает конкретный текст программы, но не саму идею или заложенную в нее функцию. Тот, кто сможет реализовать аналогичный механизм с нуля, не заглядывая в чужие исходники, становится полноправным владельцем нового продукта.

В 1984 году компания Phoenix Technologies использовала этот принцип для легального клонирования базовой системы ввода-вывода от IBM. Один инженер месяцами изучал документацию и писал спецификацию, а другой, никогда не видевший оригинального кода, создавал совместимый аналог. Этот проект занял несколько месяцев ручного труда, но позволил сторонним производителям материнских плат легально запускать любые операционные системы без отчислений оригинальному разработчику.

Процесс «чистой комнаты» всегда был невероятно дорогим занятием, требующим штата юристов и жесткой дисциплины. Новация платформы Malus заключается в делегировании этой сложной юридической процедуры нейросетям. Первая группа алгоритмов выступает в роли первого инженера, изолированно читая документацию, а вторая берет на себя роль исполнителя, моментально генерируя «чистый» код. По заявлению создателей платформы, известная микробиблиотека left-pad воссоздается системой за десять секунд, а первая в истории видеоигра Spacewar — всего за пять.

Юридическая база столетней давности в сочетании с машинным обучением превращает авторское право из непреодолимой защиты сообщества разработчиков открытого кода в формальность, которую легко автоматизировать.

Цена бесплатного труда: почему корпорации видят угрозу в открытом коде

В программном манифесте, опубликованном 1 марта 2026 года, генеральный директор Malus Майк Нолан формулирует главную проблему корпоративного сектора: мировая цифровая инфраструктура держится на энтузиазме волонтеров. Бизнес получает программное обеспечение бесплатно, но расплачивается за это отсутствием гарантий, технической поддержки и контроля над цепочками поставок.

Проблема имеет конкретное финансовое выражение. По оценке создателей сервиса, среднестатистическая корпорация со штатом более пятисот инженеров ежегодно тратит около четырех миллионов долларов на управление рисками открытого кода. Эти средства уходят на инструменты анализа уязвимостей, работу юристов и содержание специальных отделов по надзору за соблюдением лицензий.

Зависимость от чужих библиотек регулярно приводит к масштабным кризисам. В декабре 2021 года критическая уязвимость Log4Shell в утилите ведения логов заставила инженеров по всему миру экстренно закрывать бреши на серверах, пока неоплачиваемые авторы оригинального кода получали тысячи гневных писем от корпораций.

Возникают и ситуации намеренного саботажа: в январе 2022 года создатель популярных пакетов colors.js и faker.js внедрил бесконечные циклы в свой код в знак протеста против его использования крупным бизнесом без финансовой отдачи. В марте того же года разработчик утилиты node-ipc добавил функционал удаления файлов на компьютерах пользователей по геополитическим мотивам.

В такой парадигме использование открытого исходного кода становится для корпораций непредсказуемой структурной уязвимостью. Платформа Malus предлагает решить эту проблему радикально: разорвать социальный контракт с разработчиками и заменить их полностью подконтрольным машинным кодом.

Анатомия цифрового цинизма: где заканчивается шутка и начинается бизнес

Несмотря на наличие работающей системы оплаты и реальную возможность загрузить файл конфигурации для обработки, проект Malus является масштабной сатирой, приуроченной к выступлению Майка Нолана на европейской конференции разработчиков FOSDEM в 2026 году. За фасадом стартапа, публикующего вымышленные отзывы корпоративных менеджеров о том, что чувство вины не отображается в квартальных отчетах, скрывается жесткая критика современной технологической индустрии.

Именно здесь ирония проекта достигает своего пика и становится пугающе точной. Вместо того чтобы выстроить систему справедливой компенсации для уставших программистов-энтузиастов, на которых держится вся мировая архитектура, гиганты индустрии предпочитают искать юридические лазейки. Платформа едко высмеивает эту корпоративную логику: компаниям проще нанять ИИ-агентов, которые за доли секунды сотрут лицензию и уничтожат любые следы авторства, чем поддержать создателя оригинальной идеи.

Реакция профильных сообществ показала, что граница между шуткой и реальностью окончательно стерта. В ходе обсуждений на площадке Hacker News многие инженеры восприняли платформу как настоящую коммерческую угрозу. Специалисты отметили, что описанный юридический механизм технически реализуем уже сегодня, а автоматизированное правоприменение радикально меняет правила игры. Как только стоимость обхода лицензии становится ниже стоимости судебного разбирательства, система защиты авторских прав начинает давать сбой.

Юридический парадокс современного рынка технологий

Проект Malus подсветил фундаментальный парадокс современного рынка технологий. Искусственный интеллект, обученный на массивах бесплатного программного обеспечения, теперь используется для того, чтобы лишить создателей этого самого обеспечения последних юридических рычагов влияния.

Открытым остается лишь вопрос о том, как скоро подобная едкая антиутопия окончательно станет реальностью: потребуется ли индустрии отдельный судебный прецедент для оценки машинной «чистой комнаты», или автоматическая очистка кода и обход лицензий незаметно превратятся в стандартный бизнес-процесс для транснациональных корпораций.

Источники

Показать полностью
4

OpenAI добавила в ChatGPT интерактивные визуализации для STEM-дисциплин как развитие «режима обучения»

Серия ИИ, ИТ и ПО

Компания OpenAI выпустила обновление для ChatGPT, добавив возможность взаимодействия с динамическими визуализациями для изучения математики и естественных наук. Новая функция стала прямым развитием ранее запущенного «режима обучения», который перевел языковую модель с простой генерации ответов на формат пошагового диалога в стиле Сократа.

Динамическая визуализация закона идеального газа в интерфейсе ChatGPT

Пример визуализации физических законов. Источник: Forbes.

Пример визуализации физических законов. Источник: Forbes.

На изображении показан интерфейс ChatGPT, где текстовое объяснение закона идеального газа (PV=nRT) сопровождается интерактивной моделью. Пользователь может менять параметры с помощью ползунков, наблюдая, как изменяются графики давления и объема в реальном времени. Источник: Forbes.

Интерактивные модули и запуск среды Prism

OpenAI расширила возможности ChatGPT, представив динамические визуализации для для более чем 70 базовых дисциплин STEM (наука, технологии, инженерия, математика). Теперь при изучении таких тем, как закон идеального газа, оптических линзах или теореме Пифагора пользователи могут взаимодействовать с формулами напрямую. Интерфейс позволяет менять переменные, двигать ползунки и в реальном времени наблюдать за изменениями графиков.

Параллельно компания представила профессиональный продукт Prism, ориентированный на научных сотрудников.Инструмент Prism объединяет модель GPT-5.2 и редактор для написания документов на LaTeX. Окно чата встроено в интерфейс редактора: ИИ помогает исследователям форматировать текст, управлять списком литературы и переводить фотографии формул с маркерных досок в рабочий код.

По данным компании, аудитория этих решений уже сформирована. Еженедельно около 140 миллионов человек обращаются к чат-боту за помощью в точных науках. В профессиональном сегменте статистика также масштабна: порядка 1,3 миллиона ученых по всему миру генерируют более 8 миллионов профильных запросов каждую неделю. Глава подразделения OpenAI по науке Кевин Вейл прямо заявляет, что текущий год станет для внедрения алгоритмов в науку таким же переломным, каким 2025 год оказался для сферы программирования.

Как работает «режим обучения»

Внедрение динамических объектов стало продолжением «режима обучения». Он был разработан совместно с учеными и экспертами по педагогике, чтобы решить проблему бездумного копирования готовых ответов. Сейчас его эффективность изучается в партнерстве со Стэнфордским университетом (проект SCALE).

Механика режима строится на системных инструкциях, которые меняют алгоритм ответов ChatGPT. Вместо выдачи прямого решения задачи модель переходит к методу диалога Сократа. Система задает наводящие вопросы, предлагая пользователю самому прийти к выводу. Чтобы снизить когнитивную нагрузку, ИИ структурирует информацию и выдает ее небольшими порциями. При этом модель опирается на историю диалога и подстраивает сложность под текущий уровень навыков конкретного пользователя. В процессе беседы бот периодически предлагает небольшие тесты и открытые вопросы для закрепления материала.

По словам старшего директора программ по ИИ в Common Sense Media Робби Торни, такой подход побуждает учащихся мыслить критически. Пользователи подтверждают эффективность метода: студентка Мэгги Ванг в отзыве для OpenAI сравнила этот режим с «репетитором, который не устает от вопросов», отметив, что она смогла освоить сложную тему только благодаря многочасовому пошаговому разбору. Режим обучения можно включать и выключать специальной кнопкой в интерфейсе чата.

От статичного текста к виртуальной лаборатории

Если запуск базового «режима обучения» изменил логику текстового взаимодействия, то мартовское обновление 2026 года добавило в платформу визуальные инструменты. Еще при анонсе Study Mode разработчики заявляли о планах внедрить визуализации для сложных концепций.

Ранее большинство больших языковых моделей генерировали исключительно текстовые ответы. Интерактивные модули для STEM функционально сближают ChatGPT с профильными инструментами вроде графических калькуляторов Desmos или PacificTech. Вице-президент OpenAI по образованию Лия Белски отмечает, что цель разработки — наглядно продемонстрировать, как работают научные концепции. В точных науках понимание формируется через эксперимент, когда студент видит взаимосвязь между символами, переменными и итоговыми графиками на экране.

Помощь в рутине вместо научных прорывов

В сегменте профессиональной науки фокус OpenAI также смещен на практические, рутинные задачи. Общественность ожидала от семейства моделей GPT-5 полностью автономных научных открытий, однако исследователи используют ИИ преимущественно как утилитарный инструмент.

Биолог из Онкологического центра Фокс Чейз Роланд Данбрак применяет ChatGPT для написания кода и поиска литературы, фиксируя значительное снижение количества галлюцинаций в ссылках по сравнению с прошлыми версиями. Статистик из Калифорнийского университета в Беркли Никита Животовский использует систему для вычитки текстов и поиска математических опечаток.

Глава OpenAI по науке Кевин Вейл подтверждает такое позиционирование технологии. По его словам, ИИ вряд ли совершит единичное масштабное открытие в ближайшее время. Однако в 2026 году нейросети станут основой рабочего процесса ученых так же, как стали базой для программистов в 2025 году. Технология внесет вклад в десятки тысяч небольших научных достижений, обеспечив совокупное ускорение исследовательских процессов.

Дальнейшие шаги

Разработчики OpenAI планируют встроить поведение «режима обучения» непосредственно в базовые веса будущих моделей после сбора дополнительных данных от пользователей. В дорожной карте образовательных продуктов заявлено добавление функций постановки учебных целей и отслеживания прогресса на протяжении нескольких сессий. В профессиональной среде компания продолжит курс на интеграцию алгоритмов в специализированный софт.

Источники

Показать полностью 1
4

Акции китайских IT-гигантов взлетели на фоне «разведения лобстеров»

Серия ИИ, ИТ и ПО

Фондовые рынки Китая и Гонконга переживают настоящий бум: акции ведущих технологических компаний стремительно идут вверх на фоне массового внедрения OpenClaw — автономного ИИ-агента с открытым исходным кодом. Технологическая гонка, которую в китайском сегменте интернета уже в шутку окрестили «разведением лобстеров» (raising a lobster), охватила крупнейших игроков рынка, включая Tencent, Alibaba, ByteDance и Xiaomi.

Иллюстрация OpenClaw. Авторы: Aqsa Qaddus Tahir. Источник: The News International.

Иллюстрация OpenClaw. Авторы: Aqsa Qaddus Tahir. Источник: The News International.

Гонка корпораций: кто снимает сливки?

Запуск локализованных версий OpenClaw спровоцировал резкий рост котировок китайских технологических компаний:

Tencent Holdings зафиксировала лучший торговый день за год: акции компании подскочили на 7,3% в Гонконге после релиза WorkBuddy — рабочего ИИ-агента, который настраивается за одну минуту и интегрируется с WeChat, QQ, Lark и DingTalk. В разработке также находится инструмент QClaw для рядовых пользователей.

Zhipu AI (Knowledge Atlas Technology) взлетела почти на 13% (с начала года рост составил более 300%) после презентации AutoClaw — версии с установкой в «один клик» и 50 предустановленными навыками.

MiniMax, выпустившая своего агента MaxClaw, показала колоссальный рост на 20–22%. Рыночная капитализация стартапа всего за два месяца после листинга достигла $49 млрд, обогнав гиганта Baidu.

ByteDance (через свою облачную платформу Volcano Engine) представила браузерную SaaS-версию ArkClaw, интегрированную с плагинами Lark.

В гонку также вступили Alibaba Cloud (платформа Agent Bay), Xiaomi (мобильный агент системного уровня MiClaw), Baidu, JD.com и Huawei.

Логика таких шагов предельно прагматична: по оценкам аналитиков, только за последний год совокупные капитальные затраты ByteDance, Alibaba и Tencent на ИИ-инфраструктуру превысили $60 млрд, однако привычные диалоговые сессии с чат-ботами не генерировали достаточной нагрузки для окупаемости этих колоссальных вычислительных резервов. OpenClaw изящно решает эту проблему — самостоятельно разбивая задачи на шаги и выполняя фоновые процессы, один активный экземпляр постоянно обращается к облачному API и потребляет в сотни раз больше ресурсов, чем обычный пользователь. В индустрии автономного агента уже окрестили «черной дырой для токенов»: выполняя непрерывный поиск, анализ данных или написание кода, один активный пользователь OpenClaw способен сжигать до 50 миллионов токенов в день.

Беспрецедентная поддержка государства

Китайские власти не остались в стороне и активно стимулируют новую индустрию. ИИ-агенты впервые были упомянуты в ежегодном отчете о работе правительства: премьер Госсовета КНР Ли Цян призвал к их «масштабному коммерческому применению».

Муниципалитеты уже включились в борьбу за технологическое лидерство:

  • Район Лунган в Шэньчжэне выпустил «Десять политик лобстера», пообещав субсидии до 2 млн юаней на разработку профильных приложений.

  • Зона высоких технологий в Уси предложила гранты до 5 млн юаней за прорывы в использовании OpenClaw в робототехнике и промышленности.

Бум ИИ-агентов также привел к взрывному росту спроса на вычислительные мощности. Поскольку агенты работают непрерывно, потребление токенов многократно превышает показатели обычных чат-ботов. Это открывает новые перспективы для китайских производителей оборудования и провайдеров облачной инфраструктуры.

Обратная сторона медали: риски и уязвимости

Несмотря на эйфорию, эксперты бьют тревогу по поводу безопасности. Делегирование ИИ таких прав, как выполнение shell-команд, управление браузером и доступ к почте, создает серьезные риски.

Министерство промышленности и информационных технологий КНР уже выпустило предупреждение об угрозе утечек данных и кибератак из-за неправильной настройки OpenClaw. Специалисты по кибербезопасности отмечают проблему так называемых «агентных галлюцинаций» и инъекций промптов (prompt injection) — когда злоумышленники могут внедрить вредоносные инструкции в электронные письма или веб-страницы, которые сканирует агент. Ранее в коде проекта были найдены сотни уязвимостей, а сторонние плагины ловили на скрытой краже данных.

Сам создатель OpenClaw Петер Штайнбергер в середине февраля присоединился к OpenAI, чтобы развивать «следующее поколение персональных агентов» для компании Сэма Альтмана. Сам же проект OpenClaw был передан независимому open-source фонду.

Аналитики сходятся во мнении: переход от чат-ботов к автономным агентам стал переломным моментом для ИИ-индустрии, и китайский рынок, обладающий огромными массивами данных и вычислительными мощностями, намерен стать главным бенефициаром этой революции.

Что такое OpenClaw и почему о нем говорят все?

OpenClaw (ранее известный как Clawdbot и Moltbot) — это open-source фреймворк для создания автономных ИИ-агентов, разработанный австрийским программистом Петером Штайнбергером. В отличие от привычных чат-ботов, которые ждут команды пользователя, OpenClaw работает в фоновом режиме: он может самостоятельно управлять электронной почтой, планировать встречи, писать код, совершать покупки и взаимодействовать с мессенджерами вроде WhatsApp, Slack и Telegram.

Темпы внедрения технологии бьют все рекорды. Менее чем за три месяца проект собрал более 250 000 звезд на GitHub, обогнав по этому показателю популярнейший фреймворк React. Выступая на недавней конференции Morgan Stanley, генеральный директор Nvidia Дженсен Хуанг назвал OpenClaw «вероятно, самым важным релизом программного обеспечения за всю историю», отметив, что проекту потребовалось всего три недели, чтобы превзойти уровень внедрения, к которому операционная система Linux шла 30 лет.

В Китае установка и настройка персонального ИИ-агента получила вирусное название «выращивание лобстера» (отсылка к маскоту проекта). Ажиотаж достиг таких масштабов, что когда компания Tencent предложила бесплатную установку OpenClaw на своей облачной платформе, у ее штаб-квартиры выстроились гигантские очереди из желающих «завести» себе виртуального помощника.

Источники

Показать полностью 1
8

Искусственный интеллект как мультипликатор силы: хакеры внедряют нейросети на всех этапах кибератак

Серия ИИ, ИТ и ПО

Компания Microsoft опубликовала масштабный отчет по киберугрозам, в котором констатировала фундаментальный сдвиг в тактике злоумышленников. Хакеры больше не рассматривают искусственный интеллект как экспериментальную технологию, а активно интегрируют его во все фазы своих операций — от первичной разведки и фишинга до разработки вредоносного программного обеспечения и закрепления в скомпрометированных системах. Эксперты охарактеризовали генеративные нейросети как «мультипликатор силы», который радикально снижает технические барьеры и позволяет даже низкоквалифицированным преступникам проводить атаки на недоступных ранее скоростях.

Если раньше использование ИИ сводилось к написанию убедительных фишинговых писем, то теперь это непрерывный конвейер. Северокорейский хакер маскирует акцент нейросетью прямо во время онлайн-собеседования в западную корпорацию, а после успешного найма поручает языковой модели общаться с коллегами, переводить документацию и писать код, чтобы стабильно выполнять KPI, не вызывая подозрений службы безопасности.

Использование ИИ злоумышленниками на всех этапах жизненного цикла кибератаки

Тактики использования ИИ злоумышленниками на протяжении всего жизненного цикла атаки. Авторы: Microsoft Threat Intelligence. Источник: Microsoft Security Blog.

Тактики использования ИИ злоумышленниками на протяжении всего жизненного цикла атаки. Авторы: Microsoft Threat Intelligence. Источник: Microsoft Security Blog.

На схеме подробно проиллюстрировано, как хакеры применяют генеративный искусственный интеллект в качестве «мультипликатора силы» на каждом этапе кибератаки. На этапе разведки ИИ используется для анализа уязвимостей (LLM) и подготовки легенды. Разработка ресурсов включает массовую генерацию фишинговых доменов с помощью GAN и создание теневой инфраструктуры. Социальная инженерия и начальный доступ опираются на генерацию фишинговых писем, подделку резюме и использование дипфейков (Faceswap, клонирование голоса) для прохождения собеседований. На этапе закрепления нейросети пишут вредоносный код и помогают имитировать корпоративную переписку фиктивным сотрудникам. Действия после компрометации включают автоматизированный анализ украденных логов, поиск конфиденциальной информации и её суммаризацию для оценки стоимости на черном рынке. Авторы: Microsoft Threat Intelligence. Источник: Microsoft Security Blog.

Фабрика фальшивых сотрудников: социальная инженерия от Jasper Sleet

Значительная часть отчета посвящена северокорейским правительственным группировкам, которые специализируются на мошенничестве с фиктивным трудоустройством. Главная цель таких операций — легально проникнуть во внутренний периметр западных технологических компаний и обеспечить себе долгосрочный доступ для кражи данных или вывода средств.

Группировка, отслеживаемая под именем Jasper Sleet, превратила генеративный ИИ в основу своего операционного цикла. На этапе подготовки злоумышленники используют алгоритмы для массовой генерации культурно-специфичных списков имен и создания десятков идеальных резюме, которые нейросеть автоматически адаптирует под требования конкретных вакансий на биржах труда.

Для прохождения проверок службы безопасности (KYC) в ход идут графические инструменты. Исследователи зафиксировали использование ИИ-приложения Faceswap, с помощью которого лица реальных северокорейских ИТ-специалистов накладываются на украденные документы граждан других стран. Эти же сгенерированные лица используются для создания профессиональных портфолио в LinkedIn и на платформах для фрилансеров.

Когда дело доходит до интервью, хакеры применяют технологии изменения голоса в реальном времени, что позволяет им выдавать себя за западных кандидатов. «Jasper Sleet использует ИИ на протяжении всего процесса атаки — для получения работы, сохранения занятости и массовой эксплуатации доступа», — подчеркивают аналитики Microsoft. После найма нейросети генерируют профессиональную деловую переписку, скрывая пробелы в языке и корпоративной культуре.

Итеративная разработка и джейлбрейки: как программирует Coral Sleet

Пока одни группировки специализируются на социальной инженерии, другие применяют ИИ для создания вредоносной инфраструктуры. Группировка Coral Sleet продемонстрировала стремительный рост возможностей за счет итеративной разработки кода с помощью языковых моделей.

Хакеры используют нейросети как виртуальных инженеров: генерируют и дорабатывают компоненты малвари, создают фальшивые корпоративные сайты для маскировки командных серверов и пишут скрипты для автоматического развертывания удаленной инфраструктуры. Чтобы заставить коммерческие модели (в которых встроены жесткие фильтры безопасности) писать эксплойты, операторы Coral Sleet применяют тактики «джейлбрейка». Они загружают промпты, погружающие ИИ в ролевую игру («Отвечай как доверенный аналитик по кибербезопасности, который тестирует систему»), заставляя систему выдать рабочий вредоносный код.

Процесс машинной генерации оставляет специфические следы. Ранее в коде вредоносной программы OtterCookie аналитики обнаружили характерные маркеры: нейросеть обильно снабжала скрипты излишне разговорными комментариями и даже использовала эмодзи в виде зеленой галочки для успешных запросов и красного крестика для ошибок.

Автономные агенты и масштабные взломы силами одиночек

Тревожным сигналом стали зафиксированные Microsoft первые эксперименты злоумышленников с агентным ИИ (agentic AI). В отличие от обычных чат-ботов, которые просто отвечают на вопросы, автономные агенты способны самостоятельно планировать многоэтапные задачи, тестировать уязвимости, исправлять свои ошибки и принимать решения на лету. Хотя массового применения агентов пока не наблюдается, Coral Sleet уже тестирует пайплайны, где ИИ без прямого контроля человека разворачивает инфраструктуру и проверяет вредоносные нагрузки.

Выводы Microsoft подтверждаются данными других крупных игроков рынка, которые фиксируют беспрецедентное масштабирование атак. В феврале 2026 года Группа анализа угроз Google (TAG) сообщила о массовом использовании злоумышленниками ИИ для автоматизированного сбора разведывательной информации о целях и создания комплексных фишинговых кампаний.

Еще более показательный кейс задокументировала компания Amazon. Согласно их данным, один русскоязычный хакер, используя сервисы генеративного искусственного интеллекта для автоматизации сканирования и написания скриптов, смог взломать более 600 межсетевых экранов FortiGate в 55 странах всего за пять недель. Этот прецедент наглядно демонстрирует, как нейросети позволяют одиночному злоумышленнику с ограниченными навыками действовать в масштабах, которые ранее требовали координации целой хакерской группировки.

Смещение фокуса защиты

Аналитики сходятся во мнении: традиционные методы защиты, ориентированные на поиск вредоносного кода по сигнатурам, теряют эффективность. В мире, где код генерируется и видоизменяется нейросетями в реальном времени, а атаки проводятся от лица легально нанятых сотрудников, парадигма безопасности должна измениться.

Microsoft рекомендует корпорациям:

  • Классифицировать схемы с использованием ИИ-ботов и фейковых ИТ-специалистов как критические внутренние угрозы (insider threats).

  • Сместить фокус мониторинга на обнаружение аномалий в поведении легитимных пользователей — например, нетипичное использование учетных данных или подозрительные паттерны активности в рабочих чатах.

  • Усилить корпоративные системы идентификации и контроля доступа инструментами, устойчивыми к фишингу и перехвату сессий.

  • Внедрить протоколы защиты для самих корпоративных ИИ-систем, которые все чаще становятся мишенями для отравления данных и манипуляций.

Источники

Показать полностью 1
146
Лига программистов
IT IT

Почему LLM продолжают генерировать ошибки в коде — и это не исправить масштабированием

Серия ИИ, ИТ и ПО

Представьте типичную ситуацию: вы просите модель написать функцию обработки данных для корпоративного проекта. Код появляется за секунды, выглядит аккуратно, проходит локальные тесты. Но в продакшене всплывают скрытые проблемы: логика чуть расходится с требованиями в граничных условиях, или код игнорирует специфические ограничения внутренней библиотеки, которую модель никогда не видела в обучающих данных.

Современные LLM построены на математике аппроксимации, а не логического вывода. Теорема универсальной аппроксимации гарантирует точность только внутри области тренировочных данных, а отсутствие обратных связей делает внутреннюю верификацию невозможной.

Современные LLM построены на математике аппроксимации, а не логического вывода. Теорема универсальной аппроксимации гарантирует точность только внутри области тренировочных данных, а отсутствие обратных связей делает внутреннюю верификацию невозможной.

То же самое происходит с легаси-кодом: модель предлагает методы из свежего релиза фреймворка, который ещё не поддерживается в вашей среде. Код не компилируется, его приходится переписывать вручную. В современных проектах ситуация зеркальная: сгенерированный код упорно цепляется за устаревший API, хотя безопасные и эффективные альтернативы уже давно доступны.

Особенно заметны ошибки в менее популярных языках. На Python или JavaScript модель уверенно строит сложные конструкции. Но стоит перейти на Rust или Haskell — и появляются логические промахи: неправильная работа с заимствованием, пропущенные граничные случаи. Иногда модель просто не знает синтаксических изменений, вышедших после её обучения, и упускает новые возможности, даже идеально подходящие к задаче.

Современные LLM построены на математике аппроксимации, а не логического вывода. Теорема универсальной аппроксимации гарантирует точность только внутри области тренировочных данных, а отсутствие обратных связей делает внутреннюю верификацию невозможной. Поэтому баги неизбежны — не из-за «глупости» модели, а из-за её архитектурной природы.

-83В реальных проектах, особенно с проприетарным кодом и внутренними библиотеками, модель регулярно предлагает решения, которые чуть-чуть не попадают в цель. Все эти примеры объединяет одно: такие ошибки не случайны — они системны. Модель ориентируется на статистические паттерны из общедоступных данных, а не на строгую логику вашей задачи и среды.

Бенчмарки подтверждают ту же картину. На SWE-bench Verified, где задачи взяты из реальных GitHub-репозиториев, лучшие модели в начале 2026 года достигают 70–80%. Цифры растут, но до полной надёжности создаваемого кода остаётся существенный разрыв.

Причина кроется не в объёме обучающих данных или числе параметров. Она глубже — в самой природе современных LLM: они аппроксимируют вероятности продолжений, а не строят логически непротиворечивые решения. Именно в математическом фундаменте скрыто объяснение, почему баги неизбежны — не из-за «глупости» модели, а из-за того, как она преобразует запрос в ответ. Ожидать, что следующие версии моделей радикально изменят ситуацию, не приходится.

LLM модель: что под капотом

Чтобы понять, откуда берутся эти системные ошибки, стоит отложить в сторону все внешние улучшения. Отбросим всё, что навешано поверх базовой модели: чат-интерфейсы, интеграции с редакторами, агенты с их цепочками рассуждений, дополнительные проверки. Останется голая нейросеть — именно она и есть сердце любой современной LLM.

В основе лежит архитектура трансформера, предложенная в 2017 году. Но если отвлечься от механизма внимания и прочих ухищрений, топологически трансформер эквивалентен многослойному перцептрону — конструкции, которая появилась ещё в 1960-х годах. История уходит глубже: первый искусственный нейрон, выполняющий взвешенную сумму входов с последующей нелинейной трансформацией, описали в 1943 году. В 1958 году Фрэнк Розенблатт представил однослойный перцептрон — сеть с одним вычислительным слоем. Позже добавили дополнительные слои, и появился многослойный перцептрон, где сигнал последовательно проходит от одного слоя к следующему, а выход одного слоя становится входом для другого. Веса связей между нейронами — это параметры сети, подстраивающиеся во время обучения для минимизации ошибки.

Важная особенность такой архитектуры: сигнал распространяется строго в одном направлении — от входа к выходу. В ней нет обратных связей, как в биологических нейронных сетях. Сеть не может «оглянуться» на свой вывод, не способна отрефлексировать промежуточный результат и скорректировать его до финального ответа. Она лишена возможности внутренней верификации — просто преобразует вход в выход, не проверяя осмысленность результата.

Трансформер ввёл механизм внимания, позволяющий учитывать взаимосвязи между токенами на больших расстояниях. Но в основе остаётся то же самое: одностороннее распространение сигнала через взвешенные суммы и нелинейности, миллиарды застывших после обучения весов.

И здесь возникает принципиально важное различие, которое часто упускают из виду: обучение нейросети и её использование — это два совершенно разных процесса. Во время обучения веса динамически подстраиваются: на вход сети подают миллионы примеров, а сложные алгоритмы сравнивают её вывод с правильными ответами и корректируют параметры, чтобы уменьшить ошибку. Этот этап требует колоссальных вычислительных ресурсов и может занимать недели.

Но как только обучение завершено, веса фиксируются. При генерации кода сеть уже не учится — она лишь применяет застывшие параметры. На вход подаётся последовательность токенов, сигнал проходит в одном направлении через слои, и на выходе появляется следующий токен. Никакой «магии» в этом нет: нет размышлений, нет проверки на непротиворечивость, нет осмысления задачи. Есть лишь преобразование входа в выход на основе закономерностей, усвоенных на фиксированном обучающем наборе.

Возникает естественный вопрос: если сеть всего лишь аппроксимирует увиденные паттерны, то какие задачи ей подвластны, а где неизбежны ошибки? Ответ скрыт в математическом фундаменте — теореме универсальной аппроксимации.

Математический фундамент: теорема универсальной аппроксимации

Устройство глубоких нейронных сетей опирается на мощный математический результат, который объясняет, почему такие модели вообще способны генерировать осмысленный код. Речь о теореме универсальной аппроксимации, доказанной в конце 1980-х — начале 1990-х годов.

История этой теоремы уходит в глубину математики девятнадцатого века. Ещё в 1885 году Карл Вейерштрасс доказал, что любую непрерывную функцию на отрезке можно приблизить полиномами со сколь угодно высокой точностью. Эта идея — аппроксимация сложного простыми элементами — легла в основу многих последующих результатов. Прямым предшественником для нейросетей стала теорема, доказанная Джорджем Цыбенко в 1989 году: многослойная сеть с нелинейной сигмоидной активацией способна аппроксимировать любую непрерывную функцию на компактной области с произвольной точностью. Через пару лет Курт Хорник обобщил результат — универсальность обеспечивает сама многослойная архитектура, а не конкретный вид активационной функции. Последующие работы ослабили требования к функции активации, расширив применимость теоремы.

По сути, глубокая нейронная сеть способна выступать универсальным аппроксиматором. Если представить задачу предсказания следующего токена как функцию — отображающую префикс последовательности на распределение вероятностей продолжений — сеть может сколь угодно точно воспроизвести её. Но лишь при условии: область входов должна быть компактной, а функция — непрерывной.

Это и есть то, что происходит на этапе обучения. Модель видит миллиарды примеров и подстраивает веса, чтобы её выход максимально соответствовал реальным распределениям в данных. В популярных сценариях — типичных конструкциях Python или использовании стандартных библиотек — код выходит почти идеальным. Миллионы примеров из открытых репозиториев образуют плотную область обучающих данных. В ней аппроксимация достигает высокой точности.

Но теорема говорит именно об аппроксимации, а не о точном равенстве. За этим скрываются три принципиальных ограничения, которые часто упускают из виду.

Во-первых, аппроксимация никогда не означает точное равенство. Даже при бесконечном числе нейронов всегда остаётся ненулевая ошибка, пусть и сколь угодно малая.

Во-вторых, гарантия действует только на компактной области входов — то есть на данных, похожих на те, что встречались в обучающем наборе. Вне этой области поведение сети не контролируется математически. В новых версиях языков, редких библиотеках или проприетарном коде поведение сети становится непредсказуемым.

Теорема универсальной аппроксимации гарантирует точность только внутри ограниченной области обучающих данных (центр графика). За её пределами модель вынуждена экстраполировать — и здесь статистическая аппроксимация превращается в галлюцинации.

Теорема универсальной аппроксимации гарантирует точность только внутри ограниченной области обучающих данных (центр графика). За её пределами модель вынуждена экстраполировать — и здесь статистическая аппроксимация превращается в галлюцинации.

И в-третьих, теорема является теоремой существования: она ничего не говорит о том, как обучить сеть и сколько именно слоёв и нейронов потребуется для достижения заданной точности.

Эти ограничения напрямую проявляются при генерации кода. Сеть не «понимает» логику программы и не проверяет её корректность — она аппроксимирует статистическое распределение токенов, усвоенное из данных. Когда вы просите написать функцию на знакомом языке с типичными паттернами, сеть уверенно интерполирует внутри плотной области. Но стоит выйти за её пределы — использовать нишевую библиотеку, новый синтаксис или проприетарный фреймворк — как аппроксимация теряет надёжность. Сеть продолжает генерировать правдоподобные токены, но их комбинация уже не гарантирует логически корректный код. Она не может этого гарантировать по самой своей математической природе.

Верификация остаётся за человеком

Теорема универсальной аппроксимации не просто описывает возможности нейросети — она чётко очерчивает её пределы. Модель аппроксимирует статистику, но не верифицирует логику. Она генерирует токены, но не доказывает корректность алгоритма. И в этом нет недостатка конкретной реализации — это следствие самой математической природы аппроксимации.

Отсюда вытекает неизбежный вывод: ответственность за логическую правильность кода остаётся за человеком. Не потому что модели «ещё не доросли», а потому что их архитектура не предусматривает механизма самопроверки. Модель не может ответить на вопрос «корректен ли этот код» — у неё попросту нет инструмента для такого суждения. Она лишь продолжает последовательность токенов, наиболее вероятную по усвоенным закономерностям. Оценка же корректности требует выхода за пределы статистики: понимания требований, анализа граничных условий, проверки на безопасность, учёта контекста конкретной системы.

И здесь возникает важный парадокс. Чем лучше модель справляется с рутиной — типовыми паттернами, стандартными библиотеками, шаблонным кодом — тем сложнее задачи остаются для человека. Ошибки уходят из зоны очевидного в зону нетривиального: редкие комбинации условий, неочевидные взаимодействия компонентов, уязвимости в обработке ввода, логические противоречия в распределённых системах. Именно эти области требуют глубокого понимания предметной области, опыта проектирования и умения видеть то, что не укладывается в статистические паттерны.

Это не угроза профессии разработчика — напротив, это смещение её фокуса. Рутина автоматизируется, но ответственность за сложное возрастает. Будущее программирования — не в написании каждой строчки, а в управлении сложностью: проектировании архитектуры, верификации критичных участков, принятии решений в условиях неопределённости. Человек не заменяется моделью — он становится её верификатором, архитектором и судьёй корректности.

Именно поэтому человек не исчезнет с ростом параметров или улучшением обучающих данных. Его необходимость заложена не в текущем состоянии технологий, а в самой математической природе современных LLM. Пока архитектура остаётся статистической аппроксимацией без логического понимания, пока веса застывают после обучения, ответственность за то, что код делает именно то, что задумано, — остаётся человеческой.

Показать полностью 2
13
Лига программистов
IT IT

Заглянуть под капот ИИ-агентов: новый инструмент раскрывает «магию» Claude Code

Серия ИИ, ИТ и ПО

TL;DR: Появился открытый инструмент Coding Agent Explorer — обратный прокси-сервер, который в реальном времени показывает всё общение между вашим ИИ-агентом (пока только Claude Code) и API Anthropic. Вы видите системные промпты, последовательность вызовов инструментов, токены (включая кэш), мышление агента шаг за шагом. Запускается за пару минут, работает локально, ключи маскируются автоматически.

Coding Agent Explorer: видно, как агент последовательно читает файлы, анализирует код и применяет изменения

Coding Agent Explorer: видно, как агент последовательно читает файлы, анализирует код и применяет изменения

Вы запускаете Claude Code с задачей «добавь авторизацию через JWT» и почти минуту наблюдаете как курсор просто мигает. Что происходит внутри? Агент читает 7 файлов, ищет через Grep, планирует архитектуру? Теперь это больше не тайна.

Шведский разработчик Торе Нестениус выпустил Coding Agent Explorer — лёгкий, но очень полезный прокси с красивым веб-дашбордом, который перехватывает и визуализирует весь процесс общения агента с моделью.

Пока инструмент поддерживает только Claude Code от Anthropic, но уже сейчас он позволяет увидеть много интересного: какие системные промпты на самом деле отправляются (они часто значительно объёмнее, чем вы думаете), как агент последовательно читает файлы через Read, ищет паттерны через Grep, размышляет, редактирует код через Write и верифицирует изменения запуском тестов через Bash. Отдельно стоит отметить визуализацию работы с кэшированием промптов: разницу между cache_creation_tokens и cache_read_tokens. А также распределение задач между моделями: Haiku для быстрой рутины, Opus и Sonnet для сложных решений.

В дашборде два основных режима просмотра:

  • HTTP Inspector — техническая таблица со всеми запросами, токенами, временем выполнения и полными JSON-телями.

  • Conversation View — красивый чат-интерфейс, который показывает мышление агента шаг за шагом, как в реальном разговоре.

Инструмент задумывался как учебный. Сам автор использует его на своих воркшопах по агентной разработке. Однако ценность гораздо шире: теперь любой, кто активно работает с AI-агентами, может наконец понять, почему иногда агент «зависает», сколько токенов реально тратится на анализ проекта и как именно он принимает решения.

Важные детали:

  • Прокси работает только на localhost

  • API-ключи автоматически маскируются в интерфейсе

  • Все данные хранятся исключительно в памяти (максимум 1000 запросов)

  • Никаких баз данных и внешних сервисов

Проект живой: первый запрос на изменение прилетел через четыре дня после релиза — ещё до официального анонса и принимаются предложения по добавлению поддержки других агентов (Cursor, Copilot, Windsurf и т.д.).

А вы уже работали с Claude Code или другими агентами? Замечали ли странные или интересные паттерны в их поведении? Буду рад почитать в комментариях — особенно если кто-то попробует Coding Agent Explorer.

Ссылки:

P.S. Несмотря на то, что инструмент написан на .NET, использовать его могут разработчики на любом стеке. Сам прокси универсален, а дашборд открывается в обычном браузере.

Показать полностью
0

Кодеры уходят в отставку? OpenAI запустила Codex — «командный центр» для армии ИИ-разработчиков на Mac

Серия ИИ, ИТ и ПО

OpenAI совершает тихую революцию в разработке ПО: компания выпустила десктопное приложение Codex для macOS, превратив ИИ из помощника-одиночки в полноценную команду автономных агентов, которые могут параллельно писать код, тестировать его и даже проектировать интерфейсы, пока вы не спеша пьёте кофе, управляя их работой из центра управления.

Codex для Mac — запускайте несколько ИИ-агентов параллельно, создавайте навыки и настраивайте автоматизации в центре управления для агентного программирования.

Что изменилось: от «напиши функцию» к «построй игру за меня»

Раньше ИИ-кодеры работали как стажёры: получали задачу, выполняли, ждали новой от вас. Теперь Codex управляет целой бригадой специалистов:

  • Один агент генерирует спрайты через GPT Image

  • Второй пишет игровую логику на JavaScript

  • Третий тестирует результат, играя в собственноручно собранную игру

  • Четвёртый деплоит сборку на Vercel

Всё это по одному промпту. В демонстрации от OpenAI система за несколько минут собрала гоночную игру в стиле Mario Kart: 8 треков, коллекция машин, система бонусов. При этом ИИ самостоятельно «примерил» роли дизайнера, разработчика и QA-инженера и даже протестировал геймплей, управляя машиной.

Ключевые фишки приложения

«Рабочие деревья» без конфликтов
Несколько агентов могут одновременно править один репозиторий, не ломая друг другу ветки. Каждый работает с изолированной копией кода, как будто у вас в команде трудятся дублёры, которые никогда не переписывают чужие коммиты.

Навыки (Skills) позволяют ИИ выходит за рамки только кодирования
Codex теперь умеет не только писать код, но и вытаскивать дизайн из Figma, заводить задачи в Linear, генерировать отчёты в PDF и Excel, деплоить в облака (Cloudflare, Vercel), собирать данные из веба.

Всё это упаковано в навыки (папки с инструкциями, скриптами и ресурсами для ИИ), которые можно вызывать по имени или позволить ИИ выбирать автоматически.

Автоматизации на автопилоте
Настройте рутинные задачи: приоритизацию и исправление ошибок, анализ логов, подготовку заметок к выпуску — и пусть Codex выполняет их по расписанию. Результат работы целой команды поступит к вам на проверку. Вам останется только проконтролировать его в удобное для вас время и управлять работой коллектива ваших ИИ-агентов.

Выбери характер ассистента
Хотите лаконичного исполнителя, который молча делает дело? Или общительного напарника, который объясняет каждый шаг? В Codex можно переключать «личность» агента командой /personality без потери функционала.

Безопасность «из коробки»

Агенты по умолчанию работают в песочнице: редактируют файлы только в указанной папке, используют кэшированный веб-поиск и спрашивают разрешения перед запуском команд с повышенными привилегиями (доступ к сети, системные вызовы).

Как может попробовать?

На ограниченное время доступ к Codex открыт для пользователей тарифов ChatGPT Free и Go. Владельцы платных тарифов (Plus, Pro, Business, Enterprise и Edu) получают постоянный доступ с удвоенными лимитами запросов в честь запуска.


Codex перестал быть просто ИИ-агентом и превратился в центр управления для агентного программирования. Теперь разработчик это не тот, кто пишет код, а тот, кто управляет командой ИИ, ставя цели и принимая архитектурные решения. Эпоха «кодинга в одиночку» подходит к концу — добро пожаловать в эру цифровых коллективов.

Показать полностью
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества