Кто занимается планированием, тот знает, что в условиях неопределенности (которая есть практически всегда) необходимо рассматривать не один-единственный план, а несколько - хотя бы три. И чем выше неопределенность, тем большее количество планов полезно рассмотреть (если для этого есть возможности). Причем, в целом, количество планов относительно объема неопределенности растет нелинейно, и очень быстро потребность в вариантах планов (для того, чтобы хоть как-то компенсировать неопределенность) может достичь «бесконечности». При этом, даже десятки планов – это, как правило, уже неподъемно для практически всех систем управления. Да и что потом делать с сотнями или даже тысячами относительно равнозначных планов? Поэтому …
Меняем подход!
А для того, чтобы сменить подход совсем уж радикально, внимательно всматриваемся в те решения, которые реализованы природой. А кто в природе самый умный? Мы? Правильно! Поэтому смотрим на то, как работает наша система управления, а точнее – наш мозг.
А чтобы понять, как работает мозг, смотрим на то, как работает … квантовый компьютер(!). Если очень штрихпунктирно и лишь контурно описать суть, то основу квантовых вычисления составляет волновая функция, которая (можно так сказать) уже содержит все возможные варианты решения, включая правильный, и надо только этот правильный как-то эффективно извлечь… над чем все сейчас и бьются.
В каком-то смысле, в нашем мозгу тоже есть все решения (привет Платону!), но надо только научиться извлекать нужное.
Возвращаясь к мозгу : мозг, представляя собой динамичную систему ассоциативных связей между образами (тоже штрихпрунктирное контурное представление), в определенном смысле, действительно, уже содержит необходимые варианты.
Значит, если опираться на эти посылки, необходимо в отношении решаемой задачи управления построить такой «мозг», который мог бы в конкретных условиях в ходе реализации задачи отвечать на вопрос – «Что делать?» за счет того, что заблаговременно каким-то чудесным образом в него «засунуть» все возможные варианты? Похоже на то!
И что-то похожее мы уже видим.
Образным прототипом такого «мозга» могла бы быть технология, применяемая, например, для обучения больших языковых моделей. Если кто-то даст такой модели на вход данные по миллионам вариантов развития конкретной исследуемой обстановки, то эта модель вполне могла бы научиться (насколько я знаю внутренние ее механизмы) на основании этих вариантов давать полезные ответы на вопрос о том, что дальше делать. Сегодня же очевидно, что если, например, дать ей миллион книг с описанием вариантов развития какой-то обстановки, с теми воздействиями, которые оказывали на нее ее участники и с описанием того, к чему привело каждое воздействие, то она научится интерполировать – прогнозировать будущее (в рамках именно этой обстановки) и предлагать варианты эффективного воздействия на обстановку. Причем, возможно, она даже сможет прилично синтезировать новое! И оставим проблемы ее галлюцинаций пока в стороне – просто сладко помечтаем!
Выглядит же заманчиво!? Очень!
Вопрос лишь в том, откуда взять эти миллионы вариантов развития обстановки, да еще и с воздействиям , а еще и надо вычленить в обстановке результаты этих воздействий.
Вопрос «со звездочкой», однако, не такой уж он и неразрешимый.
Допустим, мы имеем дело с всего одной предметной областью, например, с управлением логистикой. Тогда вполне несложно сделать такую имитационную модель перевозок, которая будет генерировать весьма добротные (внутри непротиворечивые) варианты систем маршрутов перевозок. Сразу открою небольшой технологический секрет : для того, чтобы это эффективно сработало, необходимо над моделью физики перевозок построить модель управления всей системой перевозок. И, меняя параметры этой модели (параметры того, как она формирует варианты), можно легко получать условные планы перевозок. Эти планы далеко не все будут квазиоптимальны и даже хотя бы рациональны, но этого и не особо нужно. Главная задача этой технологии – «прощупать» пространство возможных решений, и на основании этого процесса «прощупывания» сформировать исходные данные для обучения «нейросетевых машинок».
Сработает такое? Конечно. И оно действительно срабатывает. И есть такой опыт, и не только у моей команды. Но тогда, когда мы занимались этим плотно (лет 20-15 назад), тогда у нас не было возможности применять настолько продвинутые нейросетевые технологии, как те, которые есть сейчас. Сейчас это бы заиграло новыми красками.
А красивая технология получается! Мы создаем относительно несложные имитационные модели процессов «на земле» и модели функционирования их систем управления, гоняем в хвост и гриву суперкомпьютеры, которые формируют и просчитывают миллионы модельных прогонов на основании этих моделей, а на основе полученных результатов строим то, о чем я уже писал на Катакомбе – «хрустальный шар», у которого потом можно всегда получить добротный ответ на вопрос – «Что делать в сложившейся ситуации?». И этот «шар» будет формировать ответ, в том числе, и «понимая» то, к чему приведет то или иное воздействие не только в ближайшем настоящем, но и в будущем. А как же без этого? За счет чего это получается – уточнять не буду, просто прошу поверить тут мне на слово.
А что делать, если нам необходимо решать задачи поддержки принятия решений в условиях высокой неопределенности сразу во многих областях? В тех областях, где имитационную модель построить сложно или почти невозможно, но ... необходимо ?! Причем, сложность построения модели, зачастую, связана с тем, что мы просто не знаем глубинные процессы в этой области настолько, чтобы описать их так же «математично», как это делаем, когда описываем, например, движение железнодорожного транспорта? (А тут привет моим друзьям из старого РЖД!) В качестве примера такой неподатливой области можно привести экономику, «социалку», культуру, стратегию. Да любой конфликт (из которых состоит вся наша жизнь и жизнь интеллектуальных систем, и уж тем более - больших) это уже практически неподатливая для условно классической математики предметная область! Что делать?
А делать тут можно вот что: можно радикально сменить подход к построению имитационных моделей в условиях, когда у нас очень мало строго формализуемых знаний. В формировании имитационных моделей для таких сложных областей полезно сделать упор не на «классическом» подходе, а на том подходе, который мы у себя называем «гибридный интеллект». Это такой подход, в котором очень органично объединяются технологии экспертных систем (организации работы экспертной группы) и современные технологии ИИ. Получается красиво и мощно.
Но об этом – отдельно. И что-то на этот счет на Катакомбе уже даже есть.