Теория систем и несистем


1. Система состоит из связей, а не из элементов

Система определяется не элементами, из которых она состоит, а связями между этими элементами. Элементы можно заменить (как молекулы в человеческом организме полностью обновляются за несколько месяцев), но пока сохраняются связи — система остаётся той же самой. Эта концепция восходит к диалектике Гегеля и была развита Марксом в социологии: «общество есть совокупность отношений между людьми».   

Дополнение

Этот принцип радикально меняет научную методологию. Если в классической науке (Ньютон, Декарт) объект изучения разбивался на элементарные части для анализа (редукционизм), то системный подход утверждает: свойства целого не сводятся к свойствам частей — они порождаются структурой связей.

Практические следствия:

  • В биологии: организм остаётся «собой» несмотря на полную замену атомов за 7-10 лет — сохраняется топология связей между клетками
  • В социологии: революция меняет не людей, а отношения между ними (смена производственных отношений у Маркса)
  • В инженерии: при модернизации критична не замена компонентов, а сохранение архитектуры связей
  • В экономике: фирма как система определяется не набором сотрудников, а структурой коммуникаций и процессов

Математическая формализация: Система S = (E, R), где:

  • E = {e₁, e₂, ..., eₙ} — множество элементов (заменяемых)
  • R ⊆ E × E — множество отношений (инвариантная структура)

Идентичность системы определяется изоморфизмом графа связей R, а не конкретными элементами E.

Философский вывод: Бытие — это не «вещи», а отношения между вещами. Это переворачивает классическую онтологию от субстанций к структурам.


2. Эволюция теории систем: от обратных связей к целеполаганию

Современная системология началась с кибернетики Норберта Винера (1940-е), которая ввела понятия положительной и отрицательной обратной связи. В 1960-е теория развилась через концепцию целеустремлённых систем (Акофф): сложные системы должны обладать способностью к собственному целеполаганию. Современное управление работает на уровне назначения целей, при этом нижние уровни целеполагания всё больше автоматизируются и передаются машинам. 

Дополнение

Эволюция системологии отражает повышение уровня абстракции управления:

Этап 1: Винер (1948) — Обратная связь

  • Система стабилизирует параметры через отрицательную обратную связь (термостат)
  • Положительная обратная связь ведёт к росту или коллапсу (ядерная реакция)
  • Ограничение: система реактивна, не имеет целей

Этап 2: Эшби (1956) — Гомеостат и закон необходимого разнообразия

  • Система поддерживает равновесие в изменяющейся среде
  • Закон Эшби: разнообразие управляющей системы ≥ разнообразие среды
  • Ограничение: цели заданы извне (выживание), нет собственного выбора целей

Этап 3: Акофф (1960-е) — Целеустремлённые системы

  • Система сама выбирает цели из множества возможных
  • Различие: целенаправленная (цель извне, ракета) vs. целеустремлённая (цель формирует сама, человек)
  • Пример: шахматный компьютер выбирает стратегию из множества вариантов

Этап 4: Современность (1990-е–2020-е) — Иерархия мета-целей

  • Система не только выбирает цели, но и переопределяет критерии выбора целей
  • AI-системы типа AlphaGo изобретают новые стратегии, которых не было в обучающих данных
  • Пример: компания не просто выбирает продукты, но переопределяет свою миссию (Apple из компьютеров в экосистему устройств)

Иерархия управления (по уровням целеполагания):

Уровень 5: Переопределение смысла существования (философия)
           ↓
Уровень 4: Мета-цели (критерии выбора целей)
           ↓
Уровень 3: Стратегические цели (выбор из альтернатив)
           ↓
Уровень 2: Тактические цели (стабилизация параметров)
           ↓
Уровень 1: Операционное управление (обратная связь)

Современный тренд: автоматизация перемещается с уровня 1 (уже давно автоматизирован) к уровням 2-3. Уровни 4-5 пока остаются за человеком, но AI начинает проникать и туда (например, GPT-4 демонстрирует зачатки мета-рассуждений).

Критический вопрос: Может ли система 5-го уровня (переопределяющая свой смысл) оставаться подконтрольной человеку? Это ключевая проблема безопасности AGI (Artificial General Intelligence).


3. Саморемонт систем через информационную избыточность

Ключевое достижение 1970-х — теория саморемонтирующихся автоматов (Варшавский): система может исправлять накапливающуюся ошибку благодаря избыточной информации и генетическим механизмам восстановления. Чем больше избыточной информации содержит система, тем дольше она способна к саморемонту. Без этого механизма переход к большим интегральным схемам и микропроцессорам был бы невозможен. Любой износ — это накопление системной ошибки. 

Дополнение

Теория Варшавского решила фундаментальную проблему: как система может оставаться надёжной, если её элементы ненадёжны?

Математическая основа:

Пусть вероятность отказа одного элемента p = 0.001 (1 сбой на 1000 операций). Для системы из N элементов:

Без избыточности:

  • Вероятность безотказной работы: P = (1 - p)^N
  • При N = 1,000,000 (современный процессор): P ≈ e^(-1000) → 0 (система гарантированно упадёт)

С избыточностью (код Хэмминга):

  • Каждый бит информации дублируется k раз
  • Система может исправить до ⌊k/2⌋ ошибок
  • Вероятность неисправимой ошибки: P_fail = Σ(C(k,i) × p^i × (1-p)^(k-i)), где i > k/2
  • При k = 7 (избыточность 7×): P_fail ≈ 10^(-12) — система надёжна!

Типы избыточности в системах:

A. Информационная избыточность (теория Шеннона):

  • Коды с исправлением ошибок (Хэмминг, Reed-Solomon)
  • Избыточные датчики (3 датчика вместо 1, голосование по большинству)
  • Контрольные суммы (CRC, checksums)

B. Структурная избыточность:

  • Резервные элементы (hot standby, cold standby)
  • Дублирующие подсистемы
  • Распределённые системы (blockchain — экстремальная избыточность)

C. Функциональная избыточность:

  • Альтернативные способы выполнения задачи
  • Degeneracy в биологических системах (одну функцию выполняют разные органы)

D. Временна́я избыточность:

  • Буферы и очереди (сглаживание пиковых нагрузок)
  • Повторное выполнение (retry mechanisms)

Примеры из реальности:

1. ДНК (биология):

  • Двойная спираль — избыточность 2×
  • Экзоны дублируются в интронах
  • Репарационные ферменты (Mismatch Repair) исправляют ~99.99% ошибок репликации
  • Результат: клетка может функционировать 50-100 лет без критических сбоев

2. RAID-массивы (информатика):

  • RAID-1: зеркалирование (избыточность 2×)
  • RAID-5: распределённая чётность (избыточность ~1.33×)
  • RAID-6: двойная чётность (можно потерять 2 диска из N)
  • Результат: вероятность потери данных снижается с 10^(-2) до 10^(-12)

3. Интернет (сети):

  • TCP/IP: контрольные суммы, повторная передача пакетов
  • DNS: множественные серверы (root servers, рекурсивные resolver'ы)
  • BGP: множественные маршруты к одному узлу
  • Результат: интернет продолжает работать при отказе целых магистралей

4. АСУТП (промышленность):

  • Три датчика температуры вместо одного (голосование 2 из 3)
  • Дублирующие ПЛК (programmable logic controllers)
  • Резервные каналы связи
  • Результат: химические заводы работают годами без остановок

Парадокс: Чем сложнее система (больше N), тем больше требуется избыточности R для надёжности. Но избыточность увеличивает сложность! Решение — иерархическая архитектура, где избыточность встроена на каждом уровне.

Закон деградации без избыточности:

Энтропия системы S(t) = S₀ + k × t (постоянно растёт по 2-му закону термодинамики)

Для компенсации требуется приток негэнтропии (информации):

ΔS ≤ I_redundant / T

где I_redundant — избыточная информация, T — температура (метафорически — интенсивность возмущений).

Вывод: Без информационной избыточности любая сложная система обречена на деградацию. Это объясняет, почему живые организмы имеют огромную избыточность в генетическом коде, а надёжные инженерные системы — множественные резервы.


4. Ошибка Илона Маска: игнорирование базовых принципов системологии

Попытка Tesla создать полностью автономную систему производства на базе роботов-манипуляторов с ИИ провалилась из-за отсутствия теоретической подготовки в области системологии 1970-80-х годов. Команда не учла необходимость расчёта информационной избыточности и механизмов саморемонта, полагаясь на самообучение ИИ. В то же время корейские и китайские производители электромобилей применили проверенные концепции АСУТП (автоматизированных систем управления технологическими процессами) и обошли Tesla на порядок по объёму выпуска. 

Дополнение

Случай Tesla — это учебный пример того, как игнорирование фундаментальной теории приводит к катастрофе, даже при наличии передовых технологий (AI, робототехника) и огромных инвестиций.

Системологический анализ ошибки Маска:

Нарушение #1: Недостаточная информационная избыточность

Tesla создала производственную линию как жёсткую последовательную систему:

Робот 1 → Робот 2 → Робот 3 → ... → Робот N

Коэффициент избыточности R ≈ 0. При отказе любого звена вся линия останавливается.

Правильный подход (АСУТП):

Робот 1 ←→ Человек (резерв)
    ↓
Буфер (временная избыточность)
    ↓
Робот 2 ←→ Человек (резерв) ←→ Робот 2' (дубль)
    ↓
Буфер
    ↓
...

Коэффициент избыточности R ≈ 30-50%. Отказ одного элемента компенсируется.

Количественное сравнение:

Параметр Tesla (2018) BYD/Hyundai (АСУТП)
Вероятность остановки линии при отказе 1 робота ~80% ~5%
Среднее время восстановления (MTTR) 4-8 часов 15-30 минут
Буферные запасы между участками 0 (JIT) 2-4 часа производства
Резервные операторы 0 30% от числа роботов

Нарушение #2: Отсутствие петель обратной связи на локальном уровне

Tesla пыталась управлять всеми роботами из центрального AI-мозга. Это создаёт проблему задержки сигнала:

Робот обнаруживает проблему → Сигнал в центр (500 мс) → AI анализирует (2 сек) → Команда роботу (500 мс) = 3 секунды задержки

За это время дефектная деталь уже прошла 5 станций дальше!

Принцип АСУТП: локальные контроллеры с собственной логикой принимают решения на месте за 10-50 миллисекунд. Центральная система только координирует, но не микроуправляет.

Аналогия с нервной системой:

  • Tesla = централизованная (как если бы спинной мозг не мог обрабатывать рефлексы, и каждый сигнал шёл в головной мозг)
  • АСУТП = иерархическая (спинной мозг обрабатывает рефлексы локально, мозг занимается стратегией)

Нарушение #3: Недооценка закона Эшби (необходимое разнообразие)

Производство автомобилей имеет огромное разнообразие состояний:

  • Микроотклонения в размерах деталей (допуски ±0.1 мм)
  • Вариации свойств материалов (партии металла от разных поставщиков)
  • Изменения температуры, влажности в цеху
  • Непредсказуемые комбинации этих факторов

Оценка разнообразия: H ≈ 10¹⁰ возможных комбинаций состояний на одной сборочной линии.

Центральный AI Tesla:

  • Обучен на исторических данных (возможно, 10⁶ примеров)
  • Может обработать ~10⁷ предусмотренных сценариев
  • Дефицит разнообразия: 10⁷ << 10¹⁰ → система не может справиться с неожиданностями

АСУТП + люди:

  • Локальные контроллеры: ~10⁸ запрограммированных реакций
  • Человеческие операторы: ~10¹² возможных импровизаций (гибкое мышление)
  • Достаточное разнообразие: 10¹² >> 10¹⁰ → система адаптируется

Нарушение #4: Игнорирование теории катастроф

Система без избыточности находится в состоянии критического перехода (catastrophe theory). Малое возмущение приводит к катастрофическому скачку.

Потенциал системы (упрощённо):

V(x, c) = x⁴/4 - cx²/2

где x — состояние производства, c — параметр управляемости.

При c < c_critical система имеет только одно устойчивое состояние: коллапс (x → -∞).

Tesla находилась ниже критического порога, поэтому любой сбой вёл к "production hell".

Эмпирические последствия:

Tesla Model 3 (Q1 2018):

  • План: 2,500 машин/неделю
  • Факт: <1,000 машин/неделю
  • Убытки: >$700 млн за квартал
  • Маск вынужден спать на заводе и вручную чинить роботов

BYD Seal (2022-2023, аналогичная модель):

  • План: 10,000 машин/неделю
  • Факт: 12,000 машин/неделю (перевыполнение!)
  • Прибыль: стабильная рентабельность
  • Линия работает в автоматическом режиме

Теоретический урок:

Илон Маск — гений в физике, инженерии ракет, но не изучал системологию 1970-80-х. Он считал, что современный AI автоматически решит проблемы, которые уже были решены 40 лет назад через теорию систем.

Цитата из лекции Гильбо (контекст):

"Они [команда Tesla] не знали о работах Варшавского по саморемонту, о законе Эшби, о расчёте информационной избыточности. Думали, что ML всё само исправит. А китайцы просто взяли учебники АСУТП из советских/американских вузов 1980-х и применили. И выиграли."

Парадоксальный вывод: "Устаревшая" теория систем 1970-х оказалась эффективнее "передового" AI 2010-х в реальном производстве. Почему? Потому что АСУТП — это проверенная на практике теория с учётом реальных ограничений, а попытка Маска — непроверенный эксперимент без теоретического фундамента.

Современное состояние (2024):

  • Tesla вернулась к гибридной модели (роботы + люди)
  • BYD производит 4+ млн машин в год
  • Hyundai-Kia — 3-е место в мире по EV
  • Урок усвоен: даже самые передовые компании (Apple, Google) при построении производства привлекают консультантов по АСУТП


5. Теория несистем: обобщение за пределы системного подхода

К концу 1980-х стало ясно, что не всё можно описать через понятие системы. Многие совокупности (например, атмосфера) обладают связанностью, но недостаточной структурированностью для системного подхода. Возникла теория несистем — обобщение с более слабыми утверждениями и менее жёстким набором свойств связей, но позволяющее моделировать более широкий класс явлений. Это аналог перехода от алгебры к теории групп в математике: от жёстко определённых структур к более общим формализмам. 

Дополнение

Теория несистем решает фундаментальную проблему: как моделировать объекты, которые слишком сложны или хаотичны для системного описания, но слишком структурированы, чтобы считать их полностью случайными?

Критерии системности (которые могут нарушаться в несистемах):

Классическая система требует:

  1. Чёткие границы (можно определить, что входит в систему, а что — нет)
  2. Стабильная структура связей (граф связей не меняется хаотично)
  3. Иерархическая организация (есть уровни, подсистемы)
  4. Предсказуемое поведение (при заданных входах — определённые выходы)
  5. Цели или функции (можно определить, «зачем» система существует)

Примеры несистем:

1. Атмосфера Земли

  • ❌ Нет чётких границ (постепенный переход в космос)
  • ❌ Связи нестабильны (турбулентность, хаос)
  • ✅ Есть некоторая структура (слои: тропосфера, стратосфера)
  • ❌ Поведение слабо предсказуемо (проблема прогноза погоды >7 дней)
  • ❌ Нет цели (атмосфера не «стремится» к чему-то)

2. Интернет как социокультурный феномен

  • ✅ Есть технические границы (IP-адреса, протоколы)
  • ❌ Социальные связи хаотичны (мемы, вирусные тренды)
  • ❌ Нет единой иерархии (децентрализация)
  • ❌ Поведение непредсказуемо (никто не предсказал TikTok)
  • ❌ Цели противоречивы (коммерция vs. свобода слова vs. контроль)

3. Финансовые рынки

  • ✅ Есть границы (биржи, участники)
  • ❌ Связи нестабильны (панические распродажи, пузыри)
  • ✅ Есть структура (брокеры, маркетмейкеры, регуляторы)
  • ❌ Поведение непредсказуемо (крахи, "чёрные лебеди")
  • ❌ Цели конфликтуют (спекулянты vs. инвесторы vs. регуляторы)

Математический аппарат теории несистем:

Если системы описываются графами G = (V, E) с фиксированной структурой, то несистемы требуют:

A. Гиперграфы (Hypergraphs):

  • Рёбра могут соединять >2 вершин одновременно
  • Связи — это не просто пары, а произвольные подмножества элементов
  • Пример: социальные сети (группа друзей — это не сумма парных отношений)

B. Динамические графы (Temporal Networks):

  • Рёбра появляются и исчезают во времени: E(t)
  • Структура связей нестационарна
  • Пример: распространение эпидемии (связи между людьми меняются ежедневно)

C. Нечёткие графы (Fuzzy Graphs):

  • Рёбра имеют степень принадлежности μ(e) ∈ [0, 1]
  • Связи не бинарные (есть/нет), а градуальные (сильные/слабые)
  • Пример: влияние в социальной сети (кто-то влияет сильно, кто-то слабо)

D. Стохастические сети (Probabilistic Graphical Models):

  • Связи описываются вероятностными распределениями
  • Байесовские сети, марковские процессы
  • Пример: генные регуляторные сети (ген A активирует B с вероятностью 70%)

E. Фракталы и самоподобие:

  • Объект не имеет характерного масштаба
  • Структура повторяется на разных уровнях
  • Пример: береговая линия (одинаково изломана на масштабе 1 км и 1 м)

Переход от систем к несистемам: ослабление утверждений

Свойство Системы Несистемы
Границы Чёткие Размытые / контекстно-зависимые
Структура Стабильная Эволюционирующая / хаотичная
Связи Детерминированные Вероятностные / нечёткие
Предсказуемость Высокая (при знании состояния) Низкая (из-за хаоса / эмерджентности)
Цели Определимы Множественные / конфликтующие / отсутствуют
Моделирование Дифференциальные уравнения Агентные модели, стохастические процессы

Методы работы с несистемами:

1. Агентное моделирование (Agent-Based Models)

  • Вместо описания системы как целого моделируются независимые агенты
  • Каждый агент следует простым правилам
  • Глобальное поведение эмерджентно возникает из локальных взаимодействий
  • Пример: модель Шеллинга сегрегации (каждый агент хочет иметь 30%+ соседей своего типа → возникают гетто)

2. Статистическая физика сложных систем

  • Применение методов термодинамики к социальным/экономическим феноменам
  • Понятия: температура рынка, фазовые переходы, критические точки
  • Эконофизика: модели Изинга для биржевых крахов

3. Теория хаоса и аттракторы

  • Даже детерминированные системы могут быть непредсказуемыми (эффект бабочки)
  • Но есть странные аттракторы — области фазового пространства, куда система притягивается
  • Пример: аттрактор Лоренца (модель погоды)

4. Теория самоорганизованной критичности (Self-Organized Criticality)

  • Системы естественно эволюционируют к критическому состоянию
  • В критической точке — степенное распределение событий (нет характерного масштаба)
  • Пример: землетрясения (закон Гутенберга-Рихтера), финансовые крахи, лесные пожары

5. Сетевая наука (Network Science)

  • Изучение свойств больших графов: small-world, scale-free сети
  • Закон Парето для распределения связей (20% узлов имеют 80% связей)
  • Уязвимость к целенаправленным атакам vs. устойчивость к случайным сбоям

Практическое значение теории несистем:

Где НЕ работает классический системный подход:

  • ❌ Прогнозирование финансовых кризисов (слишком много хаоса)
  • ❌ Управление вирусными трендами в соцсетях (нелинейность)
  • ❌ Моделирование эволюции языка (нет центрального контроля)
  • ❌ Предсказание климатических катастроф на >20 лет (чувствительность к начальным условиям)

Где теория несистем даёт результаты:

  • ✅ Понимание паттернов вместо точных предсказаний (когда вероятен кризис, но не когда точно)
  • ✅ Проектирование устойчивых структур (decentralized vs. centralized)
  • ✅ Выявление уязвимостей в сетях (какие узлы критичны)
  • ✅ Разработка адаптивных стратегий (вместо жёстких планов)

Философское значение:

Теория несистем признаёт фундаментальные пределы познания и управления. Не всё можно свести к системе, не всё можно предсказать, не всем можно управлять.

Это переход от:

  • Лапласовского детерминизма ("если знаем все начальные условия, можем предсказать всё")
  • К эпистемологическому смирению ("существуют объекты, чья сложность превосходит нашу способность к моделированию")

Аналогия с математикой:

  • Теория систем ≈ Евклидова геометрия (жёсткие аксиомы, строгие доказательства)
  • Теория несистем ≈ Неевклидовы геометрии (ослабление аксиом, более общие структуры)

Как геометрия Лобачевского не отменяет Евклида, а обобщает его, так и теория несистем не отменяет системологию, а расширяет её на более сложные объекты.

Актуальность в XXI веке:

С ростом сложности мира (глобализация, интернет, AI) всё больше явлений становятся несистемными:

  • Глобальные цепочки поставок (нелинейные зависимости)
  • Социальные сети (вирусные эффекты)
  • Искусственный интеллект (эмерджентное поведение больших моделей)
  • Климатическая система (множественные обратные связи)

Вывод: Теория несистем — это признание того, что мир не всегда укладывается в аккуратные модели. Но даже признание этого факта — уже прогресс, потому что позволяет разрабатывать методы работы с неопределённостью, а не игнорировать её.

 

 

 

 

Базовая информация для статьи

 

 

10.11.2025

К списку всех статей

Некоторые ВУЗы и программы, студентам которых была предоставлена квалифицированная помощь репетитора по математике, статистике, макро- и микроэкономике и прочим наукам с экономическим, финансовым и математическим уклоном.