© Альфред Лао, 2025
В 1998 году я запустил свой первый ИИ-стартап. Я думаю, вся венчурная тусовка тех лет в Южной Калифорнии помнит сумасшедшего русского, который продвигал проекты из будущего: виртуальную примерочную, облачный аутсорсинг и ИИ. Мы тогда называли его «цифровой мозг», и это не было метафорой.
Несмотря на то, что ИИ-стартап не полетел, я продолжал держать руку на пульсе темы: погружался больше в нейрофизиологию, когнитивные науки, психолингвистику, философию сознания, теории внимания и обучения. Следил за развитием, читал, анализировал, размышлял.
Всё это время я чувствовал: настоящая революция ещё впереди.
И то, что происходит сейчас, отличается качественно. Мы входим в эпоху когнитивных систем. ИИ – это не просто инструмент. Он стал новым участником мышления. Новым собеседником. Новым соавтором. Новым исполнителем.
Идея этого сборника родилась из практики. В моем акселераторе Идея Лаб мы работаем с предпринимателями нового поколения (айвенторами), разработчиками и продакт-менеджерами над созданием ИИ-агентов: помощников, стратегов, аналитиков, модераторов.
Чтобы делать это системно, я начал собирать лучшие техники диалога с ИИ. Тестировали их на реальных задачах. Искали слабые места. Объединяли в пайплайны.
Так и появился этот сборник: не теоретический, а прикладной, проверяемый на практике прямо по ходу работы над книгой. Перед вами первые 33 техники, которые помогут выстраивать продвинутые взаимодействия с ИИ.
Они пригодятся, если вы:
проектируете ИИ-продукты;
создаёте или обучаете агентов;
разрабатываете мультиагентные системы;
или просто хотите использовать ИИ не как болтливого ассистента,
а как надёжного партнёра по мышлению.
ИИ – уже не кнопка. Это среда, с которой нужно уметь разговаривать. И чем тоньше настройки диалога, тем мощнее результат. Этому и посвящён «Когнитивный пайплайн» – новый язык, который мы учимся использовать вместе с машинами.
Введение
Что за книга и зачем?
Это книга про то, как думать, проектировать и управлять ИИ-логикой.
По сути своей сборник подходов или инженерный справочник, который помогает строить и управлять когнитивным пайплайном в диалогах человек-агент, агент-агент, агент-LLM.
Инженерный набор когнитивных паттернов и архитектур, который поможет вам:
– выстраивать продуманные диалоги с языковыми моделями (LLM),
– проектировать reasoning-агентов с воспроизводимым и объяснимым поведением,
– и что особенно важно, собирать мультиагентные системы (MAS), где мышление распределяется между ролями, этапами и функциями.
Кому она подойдёт?
Всем, кто общается с ИИ в диалогах или проектирует и создает на базе ИИ новые продукты и решения, то есть ИИ-архитекторам, ИИ-инженерам, продактам, разработчикам ИИ-систем и другим практикам.
Потому что каждый из них решает на практике одну и ту же задачу: как сделать ИИ управляемым, объяснимым, масштабируемым и встроенным в реальный процесс.
Продакт-менеджер найдёт здесь техники для прототипирования, валидации гипотез, проектирования пайплайнов и интерфейсов, где ИИ – не просто чёрный ящик, а логическая машина.
ИИ-дизайнер увидит готовые шаблоны ролей, стилей, взаимодействий и контекстов, которые можно закреплять за агентами или адаптировать под пользователей.
Инженер и разработчик получит промпт-архитектуры, идеи для автоматизации, примеры пайплайнов, работу с memory, API, функциями и фазами reasoning.
Архитектор ИИ-решений найдёт системную карту: как проектировать ИИ-продукты и MAS-сценарии, где задействовано не одно мышление, а распределённый когнитивный процесс.
Практик, предприниматель, стратег, консультант, может использовать технику за техникой для улучшения собственного мышления, подготовки презентаций, проверки идей и проведения стратегических сессий.
Актуальность
Мы вступили в новый этап. ИИ-системы перестают быть просто генераторами текста. Они начинают думать.
Не в человеческом смысле, а в инженерном: → по шагам, → по веткам, → через версии, → через проверку и самоанализ.
Так называемые reasoning agents – это ИИ-агенты, которые не просто отвечают, а обосновывают, сравнивают, делегируют, учатся, меняют курс.
Вместе с ними появились масштабируемые мультиагентные системы (MAS), в которых:
– один агент планирует,
– другой – исполняет,
– третий – критикует,
– четвёртый – оптимизирует.
Чтобы с ними работать, недостаточно знать «хорошие формулировки».
Нужно понимать, как создавать и управлять всем этим когнитивным пайплайном. В следующем разделе я подробнее расскажу о том, что это такое.
Каждый юнит = модуль проектирования
Каждая техника оформлена как юнит.
Юниты можно читать как главы, применять как методы, комбинировать как LEGO.
Они:
– решают конкретную когнитивную задачу (например: «выявить допущения»),
– имеют структуру, применимую в пайплайне (где ставится, как работает, что вызывает),
– и обладают связями с другими юнитами (как модули reasoning-системы).
Таким образом, книга – это не линейный текст, а рабочая библиотека.
Вы можете:
– открыть её как справочник,
– читать по диагонали,
– собирать собственные reasoning-фреймворки,
– встраивать её в автоматизацию,
– или использовать для построения любых агентных систем.
Как устроен каждый юнит
Чтобы книга была по-настоящему рабочим инструментом, мы сделали все юниты одинаково структурированными. Вы быстро привыкнете к логике подачи и сможете использовать их как модули мышления и проектирования, комбинируя под свою задачу.
Структура каждого юнита
Название и краткое определение
Каждая техника начинается с понятного названия (на русском и английском), чтобы её можно было легко запомнить, искать, цитировать или использовать как тег внутри документации, агента или пайплайна.
Например:
Friction testing prompting → Стресс-тест логики
«Вводим помеху в рассуждение, чтобы проверить его устойчивость»
Цель
Здесь вы сразу видите, зачем нужна техника.
Какая мыслительная задача решается? Что активируется в модели?
Этот раздел помогает быстро понять, когда стоит применить юнит – и чего от него ожидать.
Когда применять
Раздел, описывающий типовые кейсы и сценарии, в которых эта техника особенно эффективна. Пишу не как теоретик, а как инженер и практик: с ориентацией на реальные задачи.
Например:
– анализ гипотез,
– моделирование поведения под давлением,
– разбор бизнес-идей,
– критический этап в стратегии.
Механизм работы
Это ключевая часть каждого юнита:
как работает эта техника на когнитивном уровне?
Что происходит внутри модели, когда вы её используете?
Я объясняю последовательно:
– какую роль играет структура запроса,
– как активируются нужные паттерны вывода,
– как модель обрабатывает логические или ролевые конструкции,
– какие процессы (размышление, сравнение, критика, проверка) происходят в ней.
Это позволяет не просто применять технику, но и понимать, модифицировать и встраивать её в автоматизацию.
Риски / ошибки
ИИ легко сбивается с курса.
В каждом юните мы указываем:
– типичные ошибки применения (например: «модель не видит помеху», «перепрыгивает фазу», «переходит в генерацию вместо анализа»),
– границы применимости,
– советы по улучшению результата (например: «задайте фокус заранее», «используйте после такого-то юнита»).
Связанные техники
Я показываю, как техника связана с другими юнитами. Это:
– помогает строить логические цепочки,
– выявляет взаимодополняющие подходы,
– позволяет проектировать reasoning-фреймворки (например: Hypothesis → Friction → Reflexion → Adaptation).
Применение в ИИ-агентах и MAS
Каждый юнит сопровождается пояснением:
– как он может быть встроен в reasoning-агента,
– где он применяется в MAS (мультиагентной системе),
– какую роль играет: исполнитель, наблюдатель, критик, фасилитатор и т.д.,
– можно ли его автоматизировать, делегировать, воспроизводить.
Это особенно важно для ИИ-дизайнеров и инженеров, которые создают агентные пайплайны: из техники получается поведенческий модуль.
Где применяется в продукте или агенте
Финальный раздел: прикладной уровень.
Здесь я описываю, в каких продуктах, задачах, интерфейсах или бизнес-сценариях техника особенно полезна.
Например:
– стратегические ассистенты,
– инвестиционные агенты,
– инструменты проверки гипотез,
– симуляторы решений,
– когнитивные интерфейсы,
– корпоративные MAS-решения.
Примеры промптов и ПРИМЕНЕНИЯ
Каждая техника снабжена примером промпта – на русском и английском языках, иллюстрирующим формулировку техники в изолированном виде (то есть то, как формулируется промпт по правилам этого юнита).
А в конце каждого юнита примеры на трёх уровнях применения – индивидуальный диалог, ИИ-агент, мультиагентная система (MAS) – каждая техника превращается в прикладной шаблон для проектирования, тестирования и масштабирования ИИ-решений.
Примеры применения варьируются по форме:
– одиночный промпт,
– промпт с фазами (scaffold или flow),
– промпт в формате модерации или «внутреннего монолога»,
– промпт-задание для подагента внутри пайплайна или MAS-сценария.
Как читать юниты
Вы можете:
читать подряд – как учебный курс,
использовать как справочник по задачам (например: «нужно вскрыть слабое место в идее»),
собирать пайплайны или reasoning-модули, комбинируя юниты,
использовать юниты как шаблоны для подагентов или ролей,
применять юниты как промежуточные фазы в стратегии принятия решений.
Как находить нужную технику
Я вижу три очевидных способа, но потом покажу все варианты:
А. По задаче
К примеру, Вам нужно:
• сформулировать гипотезу → смотрите Блок I → Hypothesis-first prompting
• проверить логику → Блок V → Causal chain analysis
• смоделировать роли → Блок III → Multi-role orchestration
• задать стиль и поведение → Блок III → Emulated identity prompting
• стабилизировать контекст → Блок IV → Context resilience
Б. По фазе пайплайна
Выстроили cognitive (reasoning) pipeline?
Промежуточная точка → Checkpoint prompting
Фаза наблюдения → Observation-action prompting
Фаза оценки → Self-consistency
Фаза действия → Prompt-feedback adaptation
В. По типу взаимодействия с ИИ
• Диалог – Блоки I, III
• Автоматизация – Блок II
• Агентные системы – Блок VII
• Подключение к функциям и действиям – Блок VI
• Групповая работа / фасилитация – Блоки III, V
Как собирать пайплайны из юнитов
Вы можете комбинировать юниты по типу «когнитивного конструктора»:
Пример: Анализ бизнес-гипотезы
– Decomposition prompting – разложить гипотезу на компоненты
– Assumption surfacing – выявить неявные предпосылки
– Friction testing – стресс-тестировать логику
– Reflexion prompting – дать модели осмыслить, что «сломалось»
– Prompt-feedback adaptation – адаптировать идею к новым условиям
В результате – вы не просто получили ответ, а прошли осмысленный путь рассуждения.
Книгу можно читать линейно – но эффективнее по задачам
Если вы только начинаете, можно пройти блок I от начала до конца: он даст основу мышления и логику диалога с ИИ.
Но если у вас уже есть конкретная цель – используйте навигацию по сценариям (см. предыдущий раздел) или оглавление по блокам. Так вы сразу попадёте в нужную точку.
Когнитивные пайплайны из юнитов
Каждый юнит – это модуль мышления. Вы можете комбинировать их под конкретные сценарии:
Пример: Разработка ИИ-ассистента для внутренних процессов
– Prompt composition (Блок II) – конструирование вопросов к ИИ
– Role-based prompting (Блок III) – задаём роль «аналитик»
– Decomposition + Diagnostic prompting (Блок V) – пошаговый разбор и диагностика
– Tool-trigger prompting (Блок VI) – подключаем вызов внешних функций
– Prompt-feedback adaptation (Блок V) – корректируем вывод по результату
Так появляется логическая структура reasoning, которую можно превратить в пайплайн, сценарий, агентную логику или продуктовую функцию.
Используйте техники циклично
Многие юниты можно применять не один раз, а на каждой итерации мышления:
– Reflexion prompting → после каждого вывода
– Assumption surfacing → перед каждым планом
– Self-consistency → при сравнении версий
– Prompt-feedback adaptation → как способ итеративной донастройки reasoning
Это и есть reasoning-loop – цикл наблюдение → анализ → вывод → уточнение → следующее действие.
Вы можете собирать свои reasoning-loop из нужных вам юнитов.
Встраивайте юниты в MAS, продукты, интерфейсы
Каждая техника в книге спроектирована так, чтобы:
– быть читаемой и человеком, и моделью
– встраиваться в агентную архитектуру или сценарий
– быть передана как инструкция в подагент
– или использоваться как часть поведенческой логики внутри интерфейса
Используйте юниты как практики мышления
Даже без MAS, без кода и без интерфейсов – вы можете использовать юниты как тренажёры мышления.
Открываете технику —
применяете её к своей идее, задаче, проекту —
анализируете результат —
получаете не просто ответ, а новое понимание.
Через регулярную работу с юнитами вы прокачаете не только работу с ИИ – а и своё собственное мышление как архитектора решений.
Как использовать книгу в цикле итераций
Каждый юнит можно:
использовать однократно как приём,
встроить в циклический reasoning-loop (observe → reflect → act),
делегировать отдельному подагенту (например, у вас есть «Агент-Критик», использующий только Friction + Compass),
подключить к MAS-сценарию, где разные агенты применяют разные юниты.
Как адаптировать под свой продукт, команду, проект
Вы можете:
создавать свои роли, основанные на техниках (например, «Аналитик-стресс-тестер», «Ассистент-прогнозист»)
назначать отдельные юниты под фазы CJM, дизайн-спринта, проверки гипотез
внедрять их в интерфейсы работы с ИИ (через скрытые промпты, Shadow prompting или meta-prompts)
использовать как внутреннюю библиотеку мышления при разработке продуктов
Примеры использования
1. Хочу выстроить диалог с ИИ, чтобы не получать банальные или размазанные ответы
Ты работаешь над проектом, стратегией или идеей и хочешь, чтобы ИИ не просто «что-то написал», а помог понять, сформулировать, проверить и улучшить мысль.
С чего начать:
→ Блок I: Мышление и стратегии диалога
Что ты найдёшь:
– техники, которые выстраивают размышление по шагам (Chain-of-Thought 2.0, Tree of Thought)
– способы выхода из тупиков (Step-back prompting, Compass)
– критические проверки и ролевые провокации (Dilemma, Friction testing, Cross-examining)
Как использовать:
– как шаблоны диалога
– как способы задавать себе (и ИИ) правильные вопросы
– как фреймы для проведения «мысленных сессий» с ИИ
2. Хочу создать reasoning-агента, который будет проверять бизнес-гипотезы или анализировать документы
Ты строишь ассистента, который не просто даёт информацию, а выводит логический результат, проверяет допущения, адаптирует ход рассуждений.
С чего начать:
→ Блоки I + II + V
Что ты найдёшь:
– базовые техники мышления
– способы их связывания в пайплайны
– юниты для анализа причин, прогнозов, ретроспектив, адаптации вывода
Пример пайплайна reasoning-агента:
– Decomposition – разбить задачу
– Friction testing – проверить на прочность
– Reflexion – проанализировать сбои
– Adaptation – выдать улучшенный вывод
3. Хочу создать MAS, где один агент планирует, второй проверяет, третий собирает данные, четвёртый пишет отчёт
Ты проектируешь мультиагентную систему – и тебе нужно распределить мышление, координировать роли, контролировать переходы.
С чего начать:
→ Блок VII: Оркестрация мышления и MAS
Что ты найдёшь:
– делегирование подзадач (Sub-agent delegation)
– сценарии координации ролей (MAS role coordination)
– пайплайны когнитивных фаз (Cognitive pipeline design)
– мета-агентов-наблюдателей (Reflective orchestration loops)
Пример MAS-сценария:
– Planner-агент разбивает задачу (Cognitive pipeline design)
– Executor собирает данные и действует (Action Layer)
– Critic оценивает и вносит обратную связь (Friction + Reflexion)
– Orchestrator анализирует общую картину (Reasoning checkpoints)
4. Хочу встраивать мышление ИИ в продукт или интерфейс
Ты создаёшь ИИ-продукт или сценарий, где ИИ должен не просто ответить, а пройти осмысленный путь: понять, разделить роли, удержать контекст, подключить инструмент, предложить итог.
С чего начать:
→ Блоки II + III + IV + VI
Что ты найдёшь:
– промпт-архитектуру и композицию цепочек
– способы переключения ролей и тональности
– защиту от контекстных сбоев и перегрузки
– подключения к внешним инструментам, API, памяти
Как использовать:
– как карту проектирования функционала: от голоса до действий
– как внутренний «двигатель мышления» внутри интерфейса
– как рефреймер и фасилитатор пользовательских сессий
5. Хочу исследовать или улучшать продукт, используя ИИ как стратегического собеседника
Ты не строишь MAS, не автоматизируешь, но хочешь думать точнее. Проверять идеи. Искать слабые места. Запускать новые ходы.
С чего начать:
→ Блоки I + V
Что ты найдёшь:
– техники декомпозиции, аналогий, предсказаний, ретроспектив
– способы «думать вместе» – как будто бы с советником
– шаблоны диагностики сложных задач
С какой бы ситуации ты ни начинал, внутри книги ты найдёшь модули, которые превращают твою задачу в когнитивный пайплайн.
А мышление – это теперь то, что можно проектировать, усиливать и делегировать. Просто, открывай нужный блок, собирай свою схему, двигайся по юнитам.
Ну и для уверенности, разложим по сценариям, хотя как по мне все одно.
Сценарии использования книги
Изначально проектировал как инструмент, к которому вы будете возвращаться снова и снова:
– когда проектируете ИИ-агента,
– когда работаете с LLM в продукте,
– когда тестируете гипотезу,
– когда строите когнитивный пайплайн,
– или когда попали в тупик и ищете, как вытащить себя (или модель) из него.
Мне виделось, что в перечне возможных сценариев основные это №2, 3 и 4. Но Чат подсказал, как дать вам больше пользы, поэтому вот все ключевые сценарии использования, в реальной работе и практике.
1. Как использовать книгу как справочник по мышлению с ИИ
Если вы используете ИИ как соавтора, собеседника, ассистента или стратегического советника, то юниты из Блока I и V станут вашими постоянными помощниками:
– Попали в тупик – откройте Step-back prompting
– Хотите выйти за рамки – используйте Exploratory prompting
– Не знаете, как формулировать гипотезу – примените Hypothesis-first prompting
– Нужно проследить логическую цепочку – откройте Causal chain analysis
– Хотите проверить свою идею на прочность – стресс-тест через Friction prompting
– Нужно проанализировать провал – проведите Postmortem prompting
Это сценарий «ИИ как расширение мышления».
Каждый юнит = способ думать по-новому.
Можно применять в личной работе, в командах, в стратегических сессиях.
Работая над этим сборником я понял, что для прямых, живых диалогов с ИИ в чате, можно написать отдельную книгу, и я это сделал, она называется: "Это не бред, это Чат!". Конечно, в ней нет такой полноты подходов, зато она написана совершенно другим языком и очень легко читается.
2. Как использовать книгу для проектирования reasoning-агентов
Если вы создаёте ИИ-ассистента, аналитика, планировщика, фасилитатора или любого reasoning-агента – эта книга даст вам набор когнитивных функций, которые можно комбинировать в логике агента.
Например:
– Для агента-инвестора:
→ Decomposition → Friction → Reflexion → Trust calibration
– Для агента-фасилитатора:
→ Compass prompting → Dilemma prompting → Multi-role orchestration
– Для агента-продуктолога:
→ Tree of Thought → Self-consistency → Hypothesis testing → Prompt-feedback adaptation
Вы можете собирать reasoning-пайплайны из юнитов как из Lego:
у каждого есть цель, фаза применения, тип взаимодействия и выход.
И это даёт архитекторам и разработчикам возможность:
– проектировать агентную логику шаг за шагом,
– объяснять её поведение,
– документировать и воспроизводить паттерны мышления.
3. Как использовать книгу для мультиагентных систем (MAS)
Если вы работаете с несколькими агентами, вам важна координация мышления.
Блок VII специально создан для этого:
– Как делегировать подзадачи: Sub-agent delegation
– Как координировать роли: MAS role coordination
– Как проектировать pipeline рассуждений: Cognitive pipeline design
– Как достигать согласия между мнениями: Emergent consensus prompting
– Как встроить контрольные точки: Reasoning checkpoint prompting
Вы получаете не просто инструкции, а модель оркестрации ИИ-мышления:
кто что делает, когда, как переключается фокус и как реагировать на ошибки.
Этот сценарий – для тех, кто строит ИИ-команды, корпоративные MAS, комплексные pipeline, где нужны координация, делегирование и объяснимость.
4. Как использовать книгу для проектирования ИИ-продуктов
Продуктовая логика – это цепочка задач, решений, проверок и итераций.
ИИ-продукты всё чаще включают:
– prompting-сценарии,
– memory / tool use,
– цепочки reasoning / feedback,
– ролевые взаимодействия,
– MAS-инфраструктуру.
С этой книгой вы можете:
– проектировать интерфейсы взаимодействия с ИИ,
– моделировать поведение агентов в разных ситуациях,
– встраивать когнитивные паттерны в пользовательские сценарии,
– планировать фазы reasoning внутри продукта.
Пример:
ИИ-интерфейс для стартап-анализа:
→ Пользователь задаёт идею → Агент применяет decomposition → выявляет слабые места (Assumption surfacing) → делает стресс-тест → предлагает улучшения → документирует reasoning → создаёт итоговую презентацию.
Книга становится не справочником, а репозиторием поведения,
которое вы можете внедрять в свои ИИ-продукты как API reasoning’а.
5. Как использовать книгу для фасилитации мышления команды
ИИ можно использовать как модератора, фасилитатора, второго мозга команды.
Юниты становятся «когнитивными карточками» для групповой работы:
– В стратегической сессии:
→ задаём тему → модель ведёт через Tree of Thought → выявляет дилеммы → применяет Compass → рефлексирует с Reflexion
– В анализе продукта:
→ создаём роли: дизайнер, клиент, скептик → включаем Multi-role orchestration → прогоняем Friction testing → подводим итоги
– В сессии по ошибкам:
→ Postmortem → Causal chain → Trust calibration → Next-step prompting
Книга может быть ИИ-игрой для мышления, где каждый юнит – это «когнитивный ход».
Модератор = ИИ, который двигает процесс по этим юнитам.
6. Как использовать книгу для обучения и саморазвития
Если вы хотите системно прокачать:
– навык задавания вопросов,
– критическое и стратегическое мышление,
– проектное и гипотезное мышление,
– умение вести продуктивный диалог с ИИ —
эта книга станет вашей персональной тренировочной средой.
Как использовать:
– 1 юнит = 1 день практики
– Ведите дневник диалога, где пробуете юнит, анализируете результат, формулируете улучшения
– В команде: используйте юниты как челленджи для обсуждений и воркшопов
– В обучении: строите курсы на основе блоков и практикующих юнитов
Через месяц вы не просто «лучше промптите».
Вы научитесь мыслить глубже, точнее, шире – вместе с ИИ.
Это все – разные входы в одну и ту же систему.
Как в игре Minecraft: один добывает ресурсы, другой строит архитектуру, третий изучает биомы.
А вы – проектируете мышление.
Когнитивный пайплайн
Когда мы говорим, что ИИ «думает», на самом деле мы имеем в виду не акт мышления как таковой, а структуру рассуждений:
как он воспринимает, анализирует, строит гипотезы, делает выводы, пересматривает свои суждения, принимает решения.
Всё это – не одна операция, а последовательность фаз.
И именно её я называю когнитивным пайплайном.
Что это такое?
Когнитивный пайплайн – это инженерно спроектированная цепочка когнитивных операций, которые проходят через ИИ (или через сеть агентов), чтобы достичь обоснованного вывода, на основе которого может быть принято решение и запущено действие ИИ-агента или MAS (мультиагентной системы).
Это может быть:
– внутренний reasoning-loop одного агента,
– диалоговая структура между человеком и LLM,
– распределённый процесс мышления в MAS.
Термин пока не является жёстким стандартом, как «трансформер» или «attention mechanism», но полагаю он может прижиться в профессиональной среде, особенно в контексте reasoning-пайплайнов, deliberation systems и multi-step LLM orchestration.
Почему пайплайн, а не просто цепочка промптов?
Потому что в хорошем пайплайне:
– у каждого шага есть роль,
– между шагами происходит передача контекста или результата,
– возможны ветвления, условные переходы, обратные связи,
– и главное – управление качеством вывода идёт на каждом этапе, а не постфактум.
Примеры когнитивных пайплайнов
Пример 1: Проверка продуктовой гипотезы
Decomposition – разобрать гипотезу на составные части
Assumption surfacing – выявить неявные допущения
Friction testing – ввести ограничение, чтобы проверить, где гипотеза ломается
Reflexion – проанализировать, почему и где логика не сработала
Adaptation – доработать идею с учётом слабых мест
Это не просто «диалог с ИИ» – это конструкт мышления, где на каждом этапе задействован отдельный когнитивный механизм.
Пример 2: Reasoning-агент в роли стратегического ассистента
– Получает запрос от пользователя: «Проведи SWOT-анализ идеи»
– Делает разбор по шаблону → Decomposition prompting
– Оценивает риски через Friction prompting
– Выявляет скрытые допущения → Assumption surfacing
– Дебатирует между вариантами → Comparative prompting + Self-consistency
– Документирует вывод → Reverse prompting
– Предлагает следующий шаг → Next-step selection
Каждый шаг можно делегировать подагенту.
Или встроить в один reasoning-loop.
Но во всех случаях – это пошаговая модель рассуждения, которую можно наблюдать, объяснить и повторить.
Пример 3: MAS (Multi-Agent System), решающая кейс для B2B-клиента
Planner-агент формирует roadmap на основе запроса клиента
Executor-агент проводит ресёрч с API-инструментами и web search
Critic-агент проводит Friction Test и указывает на нестыковки
Facilitator-агент собирает мнения и инициирует фазу согласования (emergent consensus)
Reporter-агент оформляет результат и объясняет, как система к нему пришла
Все вместе – это распределённый когнитивный пайплайн, управляемый оркестратором.
Почему это важно?
Потому что LLM хороша в том, что у неё богатый словарь и огромная обученность,
но плоха в том, что у неё нет собственной структуры мышления – пока вы её не зададите.
Один промпт – это лотерея.
Когнитивный пайплайн – это прозрачный и воспроизводимый reasoning-процесс.
Он:
– снижает вероятность галлюцинаций,
– делает работу ИИ-ассистента объяснимой,
– позволяет внедрить контрольные точки,
– и открывает возможность делегирования задач в MAS.
Что даёт эта книга
В этой книге я собрал юнит-за-юнитом строительные блоки, из которых можно проектировать такие пайплайны:
– от простых фаз (анализ → проверка → адаптация),
– до сложных структур с ролями, обратной связью и реальными действиями (подключение API, анализ данных, автономные циклы).
Вы можете использовать эти юниты как:
– шаблоны рассуждения,
– интерфейсы для подагентов,
– логические блоки в MAS,
– когнитивные фильтры в продукте,
– или как инструменты самопроверки при принятии решений.
Когнитивный пайплайн – это новая инженерная единица, с которой мы постоянно будем иметь дело при разработке ИИ-продуктов и мультиагентных систем.
I. Мышление и стратегии диалога
1. Пошаговые подсказки. Step-back Prompting
Цель
Выйти из тупика диалога, расширить пространство мышления модели и предложить новый взгляд на проблему. Используется для «перезагрузки» или нахождения более качественного подхода.
Когда применять
– Модель даёт однотипные или поверхностные ответы
– Требуется нестандартный взгляд или альтернативный путь решения
– Ответ зациклился или ходит по кругу
– Не удаётся продвинуться дальше в размышлении
– Нужно выйти из «локального минимума» в рассуждениях
Пример промпта
Прежде чем продолжать, давай сделаем шаг назад и посмотрим на задачу шире.
Какие альтернативные подходы мы могли бы рассмотреть, если бы не были ограничены текущими условиями?
Step back. Re-evaluate the system architecture from first principles.
What assumptions are we making, and which of them could be relaxed?
Механизм работы
– Модель рассматривает предпосылки и ограничения текущего ответа
– Начинает «думать о том, как она думает» (метапознание)
– Может предложить новую формулировку задачи или сменить фрейм
– Часто переходит к более глубокой декомпозиции или формулирует уточняющие вопросы
Риски / Ошибки
– Слишком частое применение может сбить ход рассуждения
– При слабой постановке вопроса возможна генерация общих, расплывчатых альтернатив
– Неэффективно, если начальный промпт уже был на мета-уровне – получится цикл
– В API-режиме может потребовать дополнительного контекстного окна (cost ↑)
Связанные техники
– Reflexion prompting – активирует самопроверку и пересмотр своих же решений
– Compass prompting – используется при полной неопределённости направления
– Tree of Thought (ToT) – строит несколько вариантов продолжения логики
– Reverse prompting – позволяет модели пересмотреть, как бы она сама сформулировала задачу
– Reframing – смена формулировки или фрейма без смены сути
Применение в ИИ-агентах и MAS
– Может использоваться как встроенный механизм «отката» или самокоррекции агента при неудачных попытках.
– В MAS может служить шаблоном для роли внутреннего наблюдателя или модератора, оценивающего прогресс других агентов.
– Используется как компонент переоценки в reasoning loop, особенно если предыдущие шаги зашли в тупик.
– В MAS – как функция агента-корректора или аудитора, способного остановить процесс и переформулировать направление размышлений.
– Может применяться внутри рефлексивных или модулирующих агентов, которые наблюдают за ходом reasoning и инициируют откат к более высокой перспективе.
Где применяется в продукте / агенте
– ИИ-ассистенты для принятия решений в условиях перегрузки или тупиков
– Ревизионные агенты, которые должны «переосмысливать» ранее предложенные идеи
– Системы генерации стратегий, когда нужно выйти за рамки текущих предположений
– UX-продукты и фасилитаторы, которые поддерживают креативное мышление
Примеры применения
Индивидуальный диалог с ИИ
Русский язык: «Я застрял на этой задаче: „Придумай название для образовательного проекта по искусственному интеллекту“. Пожалуйста, сделай шаг назад и предложи 3 альтернативных способа подойти к этой задаче – с разной логикой или точкой зрения.»
English:
“I’m stuck with this task: ‘Come up with a name for an educational AI project.’
Take a step back and suggest 3 alternative ways to approach this – using different logic or perspectives.”
→ Эти примеры позволяют пересобрать подход к проблеме и выйти из творческого тупика.
Применение в ИИ-агенте
Сценарий: reasoning-агент, помогающий стартапу сформулировать ключевую гипотезу, не может получить внятный результат от генератора.
Русский:
Агент-навигатор анализирует ввод пользователя и замечает: «Сформулированная гипотеза противоречива и ведёт в тупик. Предлагаю сделать шаг назад: либо уточнить сегмент, либо переписать цель проекта через пользовательскую ценность.»
English:
The navigator agent detects conflict in the input: “The stated hypothesis leads to a dead-end. Suggest stepping back: either reframe the segment or redefine the project goal in terms of user value.”
→ Step-back применяется как техника самоисправления логики до запуска генерации.
Применение в MAS (мультиагентной системе)
Русский: Агент-оценщик: «Промежуточные гипотезы не подтверждаются. Предлагаю сделать step-back и запросить у исследовательского агента 3 альтернативных формулировки исходной проблемы.» Агент-исследователь: «Принято. Готовлю новые варианты постановки задачи.»
English:
Evaluator agent: “The intermediate hypotheses are failing. Recommending step-back – request 3 alternative framings from the research agent.”
Research agent: “Understood. Generating new problem statements.”
→ Step-back prompting здесь используется как механизм восстановления стратегического направления внутри reasoning loop MAS.
2. Цепочки мыслей. Chain-of-Thought 2.0
Где применяется в продукте / агенте
– ИИ-ассистенты для принятия решений в условиях перегрузки или тупиков
– Ревизионные агенты, которые должны «переосмысливать» ранее предложенные идеи
– Системы генерации стратегий, когда нужно выйти за рамки текущих предположений
– UX-продукты и фасилитаторы, которые поддерживают креативное мышление
Цель
Побудить модель к пошаговому рассуждению вместо мгновенного ответа. Повысить прозрачность логики, точность в вычислениях и глубину анализа.
Когда применять
– При решении задач, требующих нескольких логических шагов
– Для работы с математикой, логикой, сценариями, диагностикой
– Когда важно видеть обоснование, а не только результат
– В ситуациях, где ошибка возможна из-за упрощённого рассуждения
– Для генерации гипотез или списков аргументов
Пример промпта
Давай подумаем шаг за шагом.
Как бы ты подошёл к этой задаче, если бы сначала определил ключевые переменные, затем проверил возможные зависимости, а потом сделал вывод?
Let’s work through this step by step.
Start by identifying the key factors, then explain how they interact, and finally draw a conclusion.
Механизм работы
Chain-of-Thought (CoT) заставляет модель задержать выдачу финального ответа и сначала построить логическую цепочку. Это увеличивает надёжность вывода за счёт:
– последовательной активации reasoning-модулей внутри модели,
– разбиения задачи на микрошаги (иногда имплицитно),
– возможности пользователя проверить или изменить ход рассуждений.
Версия 2.0 включает:
– использование шаблонов для конкретных типов задач,
– контроль над глубиной и длиной цепочки,
– комбинацию с другими техниками (например, self-consistency).
Риски / Ошибки
– Модель может начать «болтать» – уходить в пространные объяснения
– Цепочка может быть логически связной, но всё равно приводить к неправильному выводу
– Требует больше токенов → выше цена при API-запросах
– При генерации длинных цепочек без контроля – возможен «дрифт» смысла
Связанные техники
– Self-consistency prompting – помогает выбрать наиболее обоснованную цепочку из нескольких
– Tree of Thought (ToT) – создаёт несколько параллельных цепочек мышления
– Decomposition prompting – разбиение задачи перед CoT
– Reflexion prompting – позволяет модели переоценить свои шаги
– Step-back prompting – используется до или после цепочки для улучшения качества
Применение в ИИ-агентах и MAS
– Обеспечивает воспроизводимое логическое поведение агента, полезно при создании reasoning-агентов.
– В MAS позволяет структурировать вклад агента как цепочку шагов, которую могут продолжить или дополнить другие агенты.
– Строит базу для поэтапной коммуникации между агентами, где каждый шаг reasoning может быть передан следующему модулю.
– В MAS используется как внутренний reasoning protocol, обеспечивающий интерпретируемость при коллективном построении ответа.
– Полезен при организации pipeline reasoning, когда разные агенты выполняют разные шаги (гипотеза → проверка → вывод).
Где применяется в продукте / агенте
– Продукты, которым требуется последовательная интерпретируемая логика (например, финансы, медицина)
– Диалоговые системы, которые должны объяснять ход мышления пользователю
– Агенты, чьи ответы составлены из пошаговой генерации с контрольной проверкой
– Образовательные и обучающие ИИ-системы, демонстрирующие логику
Примеры применения
Индивидуальный диалог с ИИ
Русский язык: «Помоги проанализировать следующую ситуацию: клиенты перестали возвращаться после первой покупки. Пожалуйста, распиши своё мышление пошагово – от формулировки гипотез до выводов. Не пропускай этапы рассуждения.»
English:
“Help me analyze this situation: customers don’t return after their first purchase.
Please explain your thinking step by step – from hypothesis formulation to conclusions. Don’t skip reasoning stages.”
→ Такие промпты активируют логичное, разбитое на этапы мышление и позволяют отследить, как ИИ пришёл к выводу.
Применение в ИИ-агенте
Русский: Агент получает запрос: «Предложи стратегию выхода на рынок Индии для B2B SaaS-платформы». В ответ он запускает CoT-модуль: – этап 1: определение целевой аудитории, – этап 2: выявление барьеров, – этап 3: выбор каналов продвижения, – этап 4: метрики успеха.
English:
The agent receives: “Propose a market entry strategy for India for a B2B SaaS platform.”
It runs its CoT module:
– Step 1: define target audience
– Step 2: identify entry barriers
– Step 3: select go-to-market channels
– Step 4: propose success metrics
→ Chain-of-Thought применяется как структура принятия решений и может быть отображена пользователю для проверки.
Применение в MAS (мультиагентной системе)
Русский: Агент-юрист: «Запускаю поэтапный анализ по методике Chain-of-Thought. На каждом этапе прошу подтвердить или скорректировать выводы агентом-этическим советником и агентом-финансистом.»
English:
Legal agent: “Initiating stepwise Chain-of-Thought analysis. At each stage, requesting validation or correction from the ethics advisor agent and finance agent.”
→ CoT в MAS используется как общий язык логики, по которому взаимодействуют несколько агентов в одном reasoning pipeline.
3. Дерево мыслей. tree of Thought (ToT)
Цель
Запустить параллельные сценарии рассуждения, позволяя модели исследовать несколько логических путей и выбрать наиболее перспективный.
Когда применять
– При решении комплексных задач с несколькими возможными подходами
– Когда важно сравнить альтернативные гипотезы или решения
– Для креативных задач с высокими требованиями к обоснованию
– При проектировании, разработке, выборе архитектурных решений
– Когда Chain-of-Thought даёт узкий, линейный результат
Пример промпта
Предложи несколько различных способов решения этой задачи.
(«Показать плюсы и минусы»)
Примеры применения
В конце выбери наиболее перспективный и обоснуй выбор.
Generate multiple reasoning paths to solve the problem.
For each, explain the steps and evaluate pros and cons.
Then select the most promising one and justify your choice.
Механизм работы
Tree of Thought (ToT) инициирует ветвление логики, где модель:
– Строит несколько независимых цепочек мышления
– Оценивает каждую по заранее заданным критериям
– Выбирает одну или несколько для углублённой проработки
По сути, это приближение к множественным агентам или голосованию решений, реализованное в одной модели. Хорошо сочетается с итеративным анализом (например, через self-consistency).
Риски / Ошибки
– Растущий объём токенов при большом числе веток
– Возможна избыточная генерация «ради генерации» – требуется явная задача и критерии оценки
– Если ветки не различаются по сути, модель будет выбирать произвольно
– В API-интеграциях может потребовать постобработку и парсинг
Связанные техники
– Chain-of-Thought 2.0 – ToT расширяет её вширь, добавляя диверсификацию
– Self-consistency prompting – позволяет выбирать ветку по повторяемости
– Exploratory prompting – активирует альтернативное мышление
– Multi-agent prompting – позволяет отдать каждую ветку «разным ролям»
– Prompt orchestration – управляет порядком генерации и оценки веток
Применение в ИИ-агентах и MAS
– В MAS даёт архитектурную возможность параллельного развития гипотез: каждый агент отвечает за отдельную ветку reasoning.
– Подходит для систем, где важно не потерять альтернативные пути, пока основной reasoning развивается по выбранной линии.
– Может использоваться в рамках self-consistent MAS, где дерево решений формируется, оценивается и сливается обратно в основной поток.
Где применяется в продукте / агенте
– ИИ-ассистенты по принятию решений с альтернативами и сценариями
– Reasoning-агенты, работающие с дивергентным мышлением
– Продукты в области инноваций, R&D, проектирования и продуктового дизайна
– MAS-агентные структуры, где каждая ветка может исполняться разными агентами
Примеры применения
Индивидуальный диалог с ИИ
Русский язык: «Мне нужно выбрать формат для онлайн-курса. Вместо одного варианта, предложи разные подходы в виде дерева решений: – один путь – курс за один вечер, – другой – модульная программа, – третий – ежедневные короткие практики. Для каждой ветви распиши логику и последствия.»
English:
“I need to choose a format for an online course. Instead of one solution, generate a decision tree with different approaches:
– one path: single-evening intensive,
– another: modular program,
– third: daily micro-lessons.
Explain the reasoning and consequences behind each branch.”
→ Такой запрос активирует многовариантное мышление, даёт структурный выбор и позволяет увидеть альтернативы до принятия решения.
Применение в ИИ-агенте
Русский: Агент получает задание: «Предложи концепцию нового фитнес-продукта для подростков.»
Он запускает ToT-модуль:
– Ветка 1: мобильное приложение → соц-геймификация → партнёрства с брендами
– Ветка 2: офлайн-события → школы → амбассадоры
– Ветка 3: AI-наставник → персонализированные челленджи → дневник прогресса
English:
Agent receives: “Propose a new fitness product concept for teenagers.”
It generates ToT branches:
– Branch 1: mobile app → gamified social layer → brand partnerships
– Branch 2: offline events → school integration → ambassadors
– Branch 3: AI coach → personalized challenges → progress tracking
→ Agent не выбирает, а раскладывает пространство вариантов и передаёт другим модулям для оценки.
Применение в MAS (мультиагентной системе)
Русский: Агент-планировщик строит дерево стратегий:
– Ветка A: централизованная модель управления → быстрая реакция, но слабая гибкость
– Ветка B: децентрализованная архитектура → независимость команд, но выше риск несогласованности
– Ветка C: гибридный подход Каждая ветка передаётся на анализ соответствующим экспертным агентам (legal, ops, tech).
English:
Planner agent builds strategy tree:
– Branch A: centralized governance → fast response, low flexibility
– Branch B: decentralized architecture → team autonomy, higher coordination risk
– Branch C: hybrid model
Each branch is passed to legal, operations, and technical agents for evaluation.
→ ToT применяется как структура мультиагентной симуляции: каждая ветка может развиваться, проверяться и оцениваться отдельно.
4. Самосогласованность. Self-consistency prompting
Цель
Повысить надёжность вывода, запрашивая у модели несколько решений одной и той же задачи и выбирая наиболее повторяющийся или логически сильный ответ.
Когда применять
– Когда одна генерация даёт нестабильный или сомнительный результат
– При сложных логических или аналитических задачах
– Для задач, требующих высокой точности (диагностика, расчёты, дедукция)
– Если Chain-of-Thought дал неоднозначный или некорректный вывод
– При генерации вариантов гипотез или проектных решений
Пример промпта
Повтори анализ задачи 5 раз независимо друг от друга, следуя пошаговому рассуждению.
Затем выбери решение, которое встречается чаще всего, и обоснуй его.
Solve the problem five times independently using step-by-step reasoning.
Then select the most consistent answer and explain why it is preferred.
Механизм работы
Self-consistency prompting использует вариативность генерации в LLM как инструмент.
– Задача формулируется так, чтобы допускать многообразие решений
– Модель повторно решает задачу (либо с одним промптом в несколько прогонов, либо внутри одного вызова с инструкцией)
– Из нескольких решений выбирается наиболее частое или логически устойчивое
Это похоже на голосование без внешнего критика, при котором сам ИИ выявляет «консенсус своей логики».
Риски / Ошибки
– Возможна иллюзия согласованности – однотипные ошибки будут повторяться
– Требует больше времени и токенов (особенно в API или в автоматизации)
– При слабой постановке задачи можно получить 5 одинаково плохих ответов
– Нужна проверка разнообразия перед голосованием (иначе нет смысла)
Связанные техники
– Chain-of-Thought 2.0 – обеспечивает основу для многократных рассуждений
– Tree of Thought (ToT) – даёт ветви, которые можно протестировать на согласованность
– Reverse prompting – позволяет понять, как модель обосновывает выбранный вариант
– Prompt orchestration – управляет процессом генерации и голосования
– Reflexion prompting – можно применять после выбора для перепроверки
Применение в ИИ-агентах и MAS
– Подходит для агентов, которым требуется высокая точность (например, проверка гипотез или технический аудит).
– В мультиагентной среде может использоваться как агрегатор мнений: консенсус между множеством однотипных агентов (ensemble behavior).
Где применяется в продукте / агенте
– Применяется как механизм внутренней верификации reasoning-агента: один агент проверяет собственные итерации и выводит наиболее повторяющееся или устойчивое решение.
– В MAS может быть оформлен как meta-agent, собирающий результаты reasoning от разных агентов и выстраивающий consensus.
– Полезен в задачах с высокой степенью неопределённости, где требуется усреднение логики, а не выбор одного ответа.
Примеры применения
Индивидуальный диалог с ИИ
Русский язык: «Сгенерируй три разных ответа на вопрос: „Какая бизнес-модель подойдёт для платформы по продаже онлайн-курсов?“ Потом сравни их и объясни, какой из них наиболее логичен, обоснован и соответствует заданной цели.»
English:
“Generate three different answers to the question: ‘What business model fits a platform for selling online courses?’
Then compare them and explain which one is the most logical, well-reasoned, and goal-aligned.”
→ Такой промпт помогает не просто получить ответ, а увидеть диапазон суждений и выбрать наилучшее на основе внутренней логики.
Применение в ИИ-агенте
Русский: Агент генерирует 5 вариантов креативной концепции для запуска новой линейки косметики. Затем запускает self-consistency модуль, который: – анализирует полноту и силу каждого варианта, – выбирает 2 лучших, – и формулирует общий подход на их основе.
English:
The agent generates 5 creative campaign ideas for a cosmetics product launch. Then, using self-consistency logic, it:
– evaluates each for completeness and strength,
– selects the top 2,
– and synthesizes a composite concept from them.
→ Такой модуль заменяет субъективный отбор и усиливает прозрачность выбора в агенте.
Применение в MAS (мультиагентной системе)
Русский: Генератор-агент создаёт 3 сценария развития стартапа. Аналитик-агент сравнивает их по ключевым метрикам (срок окупаемости, уровень риска, масштабируемость).
Оценщик формирует итог: «Сценарий 2 более устойчив, но Сценарий 3 имеет наибольший потенциал при достаточном финансировании. Рекомендую гибридную стратегию.»
English:
A scenario generator agent creates 3 startup development paths.
An analyst agent compares them using key metrics (ROI time, risk, scalability).
Evaluator summarizes: “Scenario 2 is more stable, but Scenario 3 has higher upside with funding. Recommend a hybrid strategy.”
→ Self-consistency prompting реализуется как логика согласования и отбора внутри агентной экосистемы.
5. Саморефлексия и переоценка. Reflexion prompting
Цель
Побудить модель к анализу собственного ответа: выявить ошибки, слабые места, логические сбои и предложить улучшение. Увеличивает точность, надёжность и интерпретируемость reasoning-вывода.
Когда применять
– После генерации ответа, если он вызывает сомнения
– При обучении модели действовать «как критик» своих решений
– Внутри reasoning loop, как этап самопроверки
– Для создания агентов, способных учиться на ошибках
– При генерации программного кода, стратегий, планов, где важна верификация
Пример промпта
Проанализируй свой предыдущий ответ:
– какие логические допущения ты сделал?
– возможны ли ошибки или слабые места?
– как можно улучшить этот ответ?
Reflect on your previous answer:
– What assumptions did you make?
– Are there any weaknesses or potential errors?
– How would you revise it to improve accuracy or clarity?
Механизм работы
Reflexion prompting активирует мета-уровень reasoning:
– Модель интерпретирует собственный вывод как внешний текст
– Анализирует его по заданным критериям
– Формулирует замечания, улучшения или полный пересмотр
– Может перейти к самогенерации улучшенного ответа
Этот паттерн усиливает способность модели к внутренней самокритике, особенно в сложных цепочках с промежуточными рассуждениями.
Риски / Ошибки
Модель может «притворяться» критичной, не выявляя реальных слабых мест
Возможна имитация саморефлексии без настоящей переоценки
При частом применении – рост количества токенов без пропорционального улучшения
Требуется чёткая постановка критериев оценки и качества
Связанные техники
– Self-consistency prompting – можно сравнить результат до и после рефлексии
– Step-back prompting – близко по цели, но более направлено на смену перспективы
– Auto-correction loops – reflexion может быть встроена как этап цикла
– Reverse prompting – позволяет посмотреть, как бы модель пересформулировала задачу
– Prompt ranking – может использоваться для выбора до/после рефлексии
Применение в ИИ-агентах и MAS
– Reflexion – критически важный этап reasoning-цикла в агентных системах, особенно перед финальным выводом.
– Может быть реализован как отдельный агент-критик в MAS: получает результаты от других агентов, анализирует, предлагает улучшения.
– В продуктах с высоким требованием к качеству (финансовые отчёты, код, стратегии) позволяет автоматизировать ревью и self-review.
– Используется для создания reasoning loops с inner reward shaping, где качество промежуточного вывода влияет на поведение в следующем шаге.
– Повышает надёжность и интерпретируемость ИИ-продуктов, что критично для product-grade решений.
Где применяется в продукте / агенте
– Аудиторские, юридические и стратегические ИИ-системы с фазой самопроверки
– Reasoning-агенты с функцией саморефлексии
– MAS, где один агент может запускать рефлексию на действия других
– Образовательные ИИ-системы, обучающие через самонаблюдение
Примеры применения
Индивидуальный диалог с ИИ
Русский язык:
«Вот твой предыдущий ответ. Прочитай его и оцени:
– какие в нём есть сильные и слабые стороны,
– насколько он соответствует цели,
– что ты бы изменил или дополнил.
После этого предложи улучшенную версию.»
English:
“Here’s your previous answer. Review it and evaluate:
– its strengths and weaknesses,
– how well it meets the goal,
– what you would revise or expand.
Then provide an improved version.”
→ Такая практика развивает у пользователя навык постанализа и вовлекает ИИ в итеративное улучшение.
Применение в ИИ-агенте
Русский:
После генерации бизнес-идеи агент запускает модуль reflexion:
– выявляет, какие аспекты были недостаточно проработаны,
– уточняет, какие допущения могли быть ложными,
– генерирует вторую, уточнённую версию.
English: