Ответственный искусственный интеллект (Responsible AI) — это технология, включающая комплекс мер, направленных на минимизацию предвзятости, увеличение объяснимости, безопасности, конфиденциальности и соблюдение нормативных требований при разработке и использовании ИИ.
Чем более кардинальные изменения предлагает технология, тем обычно и большие потенциальные риски она в себе несет. В полной мере это можно сказать об ИИ. Упомянутые технологии (увеличение объяснимости, безопасности, конфиденциальности) мы рассмотрели в третьей лекции, здесь же отметим, что поскольку эти задачи часто рассматриваются вместе, то логично их представлять в виде комплексного сервиса, что и приводит к появлению зонтичного термина «ответственный ИИ».
Языковые модели на основе трансформеров
Тему трансформеров мы подробно рассмотрели в первой лекции. Gartner отмечает, что языковые модели на основе трансформеров достаточно быстро вытесняют системы рекуррентных нейронных сетей, позволяя существенно улучшить решение целого ряда задач в домене NLP, включая машинный перевод, продвинутую аналитику текстов, разговорные пользовательские интерфейсы, интеллектуальных виртуальных помощников и автоматизированную генерацию текстов.
Интеллектуальная сборка приложений по требованию
Интеллектуальная сборка приложений по требованию (AI-Generated Composable Applications) — это процедура использования искусственного интеллекта для автоматической автономной сборки компонентов приложений (из отдельных блоков) под конкретный запрос бизнеса. В 2020 году Gartner оценивала выход на плато продуктивности данной технологической возможности через 6-8 лет и отмечала, что последняя зависит от развивающейся тенденции, когда поставщики технологий переходят от предоставления больших и в основном статичных бизнес-приложений к предложению небольших приложений, подготовленных клиентом с надежными интерфейсами прикладного программирования (API). Большинство компонентов этой технологий уже существует (например, API, микросервисы, непрерывная интеграция, контейнеризация), однако объединение всего этого в экосистему составных приложений со стандартами, способствующими взаимодействию, еще далеко не завершено.
Управление доверием, рисками и безопасностью ИИ
Управление доверием, рисками и безопасностью ИИ (AI TRiSM — сокращение от AI trust, risk and security management).
Мы уже отметили, что ИИ порождает новые вызовы и предъявляет новые требования к управлению доверием, рисками и безопасностью, которые не учитываются традиционными средствами контроля, используемыми на предприятиях. Приложения могут работать неадекватно, из-за ошибок внутри модели или злонамеренного воздействия на ИИ-системы, что может приводить к необъективным, неправильным, неэтичным решениям и, в свою очередь, вести к финансовым и репутационным издержкам. Низкий уровень контроля над системами ИИ приводит к проблемам, что, в частности, показывают данные отчета FICO и Corinium за 2021 год. Кроме того, ошибки в моделях ИИ сложнее находить, поскольку источники ошибок могут находиться не в алгоритме, а в больших объемах данных.
Согласно данным отчета упомянутых компаний «The State of Responsible AI» — «Состояние ответственного ИИ» — большинство компаний внедряют ИИ со значительным риском. При этом 65% компаний-респондентов не могут объяснить, как принимаются конкретные решения или прогнозы на основе моделей ИИ. Только пятая часть (20%) активно контролирует свои модели в производстве на предмет справедливости и этичности.
AI TRiSM-приложения обеспечивают управление моделями ИИ, их достоверностью, надежностью, эффективностью, безопасностью, а также обеспечивают защиту данных. Данная категория включает решения и методы для интерпретируемости и объяснимости моделей, защиты данных ИИ, эксплуатации моделей и противодействия атакам противника.
Умное биоусовершенствование
Одним из наиболее обсуждаемых направлений в области био-усовершенствования является использование чипов, вживляемых в нервную систему для придания животному или человеку новых когнитивных возможностей. В основе технологии лежит нейрокомпьютерный интерфейс — система, позволяющая мозгу и компьютеру обмениваться информацией.
ModelOps
ModelOps, или Model Operations (операционализация модели), — это методология управления жизненным циклом моделей машинного обучения и аналитики, предлагающая средства оптимизации эффективности внедрения ИИ-моделей в производство, это набор возможностей, которые в первую очередь направлены на управление полным жизненным циклом всех моделей ИИ и принятия решений.
Согласно Gartner, основные возможности ModelOps включают непрерывную интеграцию/непрерывную доставку ( CI/CD), среду разработки моделей, версионирование моделей, хранение и откат моделей.
ModelOps — это расширение технологии MLOps (machine learning operations). Если MLOps фокусируется на построении моделей, их оценке и развертывании, то ModelOps — на управлении полным жизненным циклом ИИ. То есть ModelOps имеет более широкие задачи. Если назначение MLOps-инструментов — это создание приложений с поддержкой ИИ путем обеспечения совместной работы ML-команд, то задача ModelOps — обеспечить прозрачность использования ИИ и предоставлять отчеты на уровень руководителей бизнеса. Если пользователи MLOps — это в основном специалисты по исследованию данных, ML-инженеры, то пользователи ModelOps — это специалисты, оценивающие бизнесоперации и риски уровня предприятия.
Как концепция ModelOps утверждает, что важно не только строить точные модели машинного обучения, но и организовать эффективное управление их жизненным циклом так, чтобы обеспечить коммерческую отдачу от модели на протяжении ее использования. То есть модель должна поддерживаться в оптимальном состоянии, чтобы обеспечивать такое состояние, необходим мониторинг качества работы модели.
Малые и широкие данные
Под термином «малые и широкие данные» (Small and Wide Data) Gartner подразумевает технологии, которые позволяют получить решение задачи на ограниченном наборе данных при возможности объединить и проанализировать несколько разных структурированных и неструктурированных источников данных.
Технология может применяться в организации средних размеров, когда большие данные недоступны, но есть возможность объединения данных из широкого спектра разрозненных источников. Как правило, речь идет о наборах данных, изолированных в разных хранилищах. Ранее подобная разрозненность осложняла совместное использование данных, поэтому одна из задач новой технологии состоит в возможности показать корреляции в областях, которые ранее не рассматривались как связанные.
Причинно-следственный ИИ
Причинно-следственный ИИ (Causal AI) представляет собой ряд методов, включая причинно-следственные графы и моделирование, для выявления причинно-следственных связей, что в конечном итоге позволяет улучшить процесс принятия решений.
Технология позволяет добиться более высокой эффективности за счет добавления знаний о предметной области и позволяет запустить ИИ-модели на базе меньших наборов данных.
За счет использования причинно-следственных связей реализуется повышение эффективности и автономности принятия решений, лучшая объяснимость, наблюдается повышение устойчивости, адаптивности и снижение предвзятости в системах ИИ. Согласно кривой Gartner за 2022 г., данная технология была на этапе запуска, и аналитики прогнозировали, что для того, чтобы причинноследственный ИИ вышел на плато продуктивности, потребуется от 5 до 10 лет.
Графы знаний
Графы знаний (Knowledge graphs) отражают информацию о мире наглядным способом, который зачастую проще для понимания и использования, чем другие типы моделей данных. На основе анализа структуры графа могут быть получены дополнительные знания об исследуемых сущностях.
Объединение сведений из графов знаний с обучающими выборками позволяет повысить точность работы алгоритмов машинного обучения и обеспечить объяснимость получаемых результатов. Понятие «графы знаний» мы обсуждали в первой лекции, поэтому в данном разделе отметим только, что в 2021 г. Gartner поместила эту технологию как находящуюся на вершине цикла ажиотажа с перспективой выхода на плато продуктивности через 5-10 лет.
ИИ, основанный на физике
ИИ, основанный на физике (Physics Informed Artificial Intelligence, PIAI), — это процесс интеграции фундаментальных физических законов и знаний о предметной области в процесс обучения ML-моделей. Данная технология является фундаментальной, и о ней следует сказать чуть подробнее.
Несмотря на успехи в области машинного обучения, следует отметить, что возможности сбора и хранения данных на основе наблюдений существенно опережают возможности их анализа, интерпретации и извлечения знаний из этих данных.
Кроме того, модели, основанные исключительно на данных, как правило, хорошо описывают наблюдения, но предсказания на основе таких моделей могут быть физически противоречивыми. Поэтому и появляется необходимость в интеграции фундаментальных физических законов в процесс обучения ML-моделей, используя физические законы как теоретические ограничения в дополнение к закономерностям, полученным из наблюдений (из данных).
При моделировании поведения сложных объектов используют два подхода. Первый — это мультифизическое моделирование на базе решения дифференциальных уравнений, когда физический процесс описывается уравнениями в частных производных и задача решается тем или иным численным методом. Задаются краевые условия в виде начальных и граничных условий, а исторические данные позволяют определить параметры модели. Модель может прогнозировать поведение в широких пределах исходных данных и, например, моделировать запредельные режимы (недостижимые объектом в реальной эксплуатации).
Второй подход — это построение цифровой модели поведения объекта на основе данных, накопленных в процессе различных фактических режимов его эксплуатации. В этом случае модель обучается на данных и воспроизводит закономерности, извлекаемые из этих данных. Подобная модель отрабатывает поведение объекта только в тех режимах эксплуатации, которые фактически наблюдались в работе оборудования и накоплены в регистрируемых данных.
Можно сказать, что в первом случае мы исходим из того, что наука позволила выявить классы физических процессов, описываемых одной и той же системой дифференциальных уравнений. Во втором случае мы подбираем модель, максимально точно описывающую совокупность имеющихся данных, не вдаваясь в физику процесса.
Каждый из подходов имеет свои сильные и слабые стороны. Несмотря на прогресс в постановке и решении мультифизических задач, описываемых уравнениями в частных производных с помощью численной дискретизации расчетной области, в целом ряде случаев невозможно получить решения при моделировании поведения материалов, имеющих сложную неоднородную структуру, подчас у расчетчиков нет данных о поведении материалов (например, в нужном интервале температур, необходимых для проведения численного эксперимента), генерация сеток в ряде случаев остается сложной, и многие практические задачи требуют слишком высоких вычислительных ресурсов. Поэтому машинное обучение все чаще выступает перспективной альтернативой для решения подобных задач.
С другой стороны, обучение глубоких нейронных сетей требует больших данных, которые не всегда доступны. В условиях отсутствия больших данных нейронные сети могут быть обучены на основе дополнительной информации, полученной в результате применения физических законов в определенных точках пространственно-временного континуума.
Посути, ИИ, основанный на физике, позволяет интегрировать модели, основанные на данных, и модели, основанные на решении дифференциальных уравнений даже в частично определенных и высокоразмерных задачах. Иными словами, упомянутая технология позволяет включать в ИИ-модели физические знания о предметной области непосредственно на уровне нейросетевых архитектур. Это становится возможным, поскольку нейросетевые фреймворки обладают всеми необходимыми механизмами, чтобы выразить в рамках моделей зависимости, описываемые уравнениями в частных производных.
За счет интеграции в модель дополнительных ограничений на основе физических законов такие модели могут делать прогнозы на основе значительно меньшего количества данных.
Если цифровые модели, основанные исключительно на ИИ, не обязательно подчиняются фундаментальным законам физики и, как правило, не могут хорошо обобщать сценарии, на которых они не были обучены (что ограничивает их адаптивность), то PIAI лишено указанных недостатков и, как правило, обеспечивает сокращение времени обучения модели. PIAI позволяет обучать модели на меньшем объеме данных создавать более научно обоснованные модели и, соответственно, делать более надежные прогнозы для новых сценариев
Аналитики сходятся во мнении, что люди захотят не только устранять свои недуги с помощью интерфейса «мозг — компьютер», но также пожелают усовершенствовать свои физические и ментальные способности сверх биологической нормы. Новые интерфейсы позволят людям оперировать огромными массивами информации, взаимодействовать напрямую с машинами и друг с другом принципиально новыми способами. Мы уже обсуждали возможности данной технологии в разделе, посвященном этическим проблемам, связанным с развитием ИИ-систем. Здесь лишь отметим, что на рис. 5.2, представленном в 2020 г., данная технология обозначена как выходящая на плато через 6-8 лет.
Как было отмечено ранее, методы машинного обучения, и искусственные нейронные сети в частности, сталкиваются с ограничениями в плане объяснения причинноследственных связей. Отсутствие прозрачности и интерпретируемости моделей ИИ известно как узкое место для широкого внедрения этих технологий в производство. Подходы PIAI позволяют преодолеть эти проблемы.
Модели, построенные на данных, определяются этими данными. Например, такие события, как неисправности работы оборудования, которые происходят редко, подчас не отражаются в данных, и модели, построенные на указанных типах данных, могут привести к ошибочному представлению о поведении этого оборудования в критической ситуации.
Понимание принципов работы модели определяет степень доверия к ней. Вместо того чтобы рассматривать все отношения данных как «черныйящик»,интегрированный подход позволяет наложить на данные некоторые физические уравнения, например закон сохранения энергии, чтобы алгоритм машинного обучения балансировал между закономерностями, заложенными в данных, и законами, определяемыми физикой. Говорят, что подобный подход позволяет превратить «черный ящик» в «серый ящик».
На рисунке 5.3 схематично показаны три возможные категории физических проблем и соответствующие доступные данные.
Рис. 5.3. Сценарии использования физического моделирования при разном объеме данных.
В режиме малых данных предполагается, что имеется физическая модель процесса, и данные предоставляются для определения (задания) начальных и граничных условий, а также для определения параметров дифференциального уравнения. Наиболее частым является режим (средний на рисунке), когда известны некоторые данные и некоторая информация о физике процесса, но, возможно, отсутствуют некоторые значения параметров в дифференциальном уравнении. И наконец, существует режим с большими данными, когда можно не знать никакой физики и где подход, основанный на данных, может быть наиболее эффективным. Машинное обучение на основе физики может интегрировать данные и управляющие физические законы, включая модели с частично отсутствующей физикой.
ИИ-инженерия
ИИ-инженерия (AI engineering) — это область исследований и практика, в которой сочетаются принципы системной инженерии, программной инженерии, информатики и проектирования для создания систем ИИ, обеспечивающих достижение результатов решаемой задачи.
По мере внедрения систем ИИ предприятия все чаще сталкиваются с проблемами масштабируемости и операционной эффективности ИИ-решений. Инжиниринг ИИ обеспечивает операционную эффективность и экономию от масштаба за счет надежности, воспроизводимости и возможности повторного использования ИИ-моделей.
Ответственный ИИ
Ответственный искусственный интеллект (Responsible AI) — это технология, включающая комплекс мер, направленных на минимизацию предвзятости, увеличение объяснимости, безопасности, конфиденциальности и соблюдение нормативных требований при разработке и использовании ИИ.
Чем более кардинальные изменения предлагает технология, тем обычно и большие потенциальные риски она в себе несет. В полной мере это можно сказать об ИИ. Упомянутые технологии (увеличение объяснимости, безопасности, конфиденциальности) мы рассмотрели в третьей лекции, здесь же отметим, что поскольку эти задачи часто рассматриваются вместе, то логично их представлять в виде комплексного сервиса, что и приводит к появлению зонтичного термина «ответственный ИИ».
Языковые модели на основе трансформеров
Тему трансформеров мы подробно рассмотрели в первой лекции. Gartner отмечает, что языковые модели на основе трансформеров достаточно быстро вытесняют системы рекуррентных нейронных сетей, позволяя существенно улучшить решение целого ряда задач в домене NLP, включая машинный перевод, продвинутую аналитику текстов, разговорные пользовательские интерфейсы, интеллектуальных виртуальных помощников и автоматизированную генерацию текстов.
Интеллектуальная сборка приложений по требованию
Интеллектуальная сборка приложений по требованию (AI-Generated Composable Applications) — это процедура использования искусственного интеллекта для автоматической автономной сборки компонентов приложений (из отдельных блоков) под конкретный запрос бизнеса. В 2020 году Gartner оценивала выход на плато продуктивности данной технологической возможности через 6-8 лет и отмечала, что последняя зависит от развивающейся тенденции, когда поставщики технологий переходят от предоставления больших и в основном статичных бизнес-приложений к предложению небольших приложений, подготовленных клиентом с надежными интерфейсами прикладного программирования (API). Большинство компонентов этой технологий уже существует (например, API, микросервисы, непрерывная интеграция, контейнеризация), однако объединение всего этого в экосистему составных приложений со стандартами, способствующими взаимодействию, еще далеко не завершено.
Управление доверием, рисками и безопасностью ИИ
Управление доверием, рисками и безопасностью ИИ (AI TRiSM — сокращение от AI trust, risk and security management).
Мы уже отметили, что ИИ порождает новые вызовы и предъявляет новые требования к управлению доверием, рисками и безопасностью, которые не учитываются традиционными средствами контроля, используемыми на предприятиях. Приложения могут работать неадекватно, из-за ошибок внутри модели или злонамеренного воздействия на ИИ-системы, что может приводить к необъективным, неправильным, неэтичным решениям и, в свою очередь, вести к финансовым и репутационным издержкам. Низкий уровень контроля над системами ИИ приводит к проблемам, что, в частности, показывают данные отчета FICO и Corinium за 2021 год. Кроме того, ошибки в моделях ИИ сложнее находить, поскольку источники ошибок могут находиться не в алгоритме, а в больших объемах данных.
Согласно данным отчета упомянутых компаний «The State of Responsible AI» — «Состояние ответственного ИИ» — большинство компаний внедряют ИИ со значительным риском. При этом 65% компаний-респондентов не могут объяснить, как принимаются конкретные решения или прогнозы на основе моделей ИИ. Только пятая часть (20%) активно контролирует свои модели в производстве на предмет справедливости и этичности.
AI TRiSM-приложения обеспечивают управление моделями ИИ, их достоверностью, надежностью, эффективностью, безопасностью, а также обеспечивают защиту данных. Данная категория включает решения и методы для интерпретируемости и объяснимости моделей, защиты данных ИИ, эксплуатации моделей и противодействия атакам противника.
Умное биоусовершенствование
Одним из наиболее обсуждаемых направлений в области био-усовершенствования является использование чипов, вживляемых в нервную систему для придания животному или человеку новых когнитивных возможностей. В основе технологии лежит нейрокомпьютерный интерфейс — система, позволяющая мозгу и компьютеру обмениваться информацией.
ModelOps
ModelOps, или Model Operations (операционализация модели), — это методология управления жизненным циклом моделей машинного обучения и аналитики, предлагающая средства оптимизации эффективности внедрения ИИ-моделей в производство, это набор возможностей, которые в первую очередь направлены на управление полным жизненным циклом всех моделей ИИ и принятия решений.
Согласно Gartner, основные возможности ModelOps включают непрерывную интеграцию/непрерывную доставку ( CI/CD), среду разработки моделей, версионирование моделей, хранение и откат моделей.
ModelOps — это расширение технологии MLOps (machine learning operations). Если MLOps фокусируется на построении моделей, их оценке и развертывании, то ModelOps — на управлении полным жизненным циклом ИИ. То есть ModelOps имеет более широкие задачи. Если назначение MLOps-инструментов — это создание приложений с поддержкой ИИ путем обеспечения совместной работы ML-команд, то задача ModelOps — обеспечить прозрачность использования ИИ и предоставлять отчеты на уровень руководителей бизнеса. Если пользователи MLOps — это в основном специалисты по исследованию данных, ML-инженеры, то пользователи ModelOps — это специалисты, оценивающие бизнесоперации и риски уровня предприятия.
Как концепция ModelOps утверждает, что важно не только строить точные модели машинного обучения, но и организовать эффективное управление их жизненным циклом так, чтобы обеспечить коммерческую отдачу от модели на протяжении ее использования. То есть модель должна поддерживаться в оптимальном состоянии, чтобы обеспечивать такое состояние, необходим мониторинг качества работы модели.
Малые и широкие данные
Под термином «малые и широкие данные» (Small and Wide Data) Gartner подразумевает технологии, которые позволяют получить решение задачи на ограниченном наборе данных при возможности объединить и проанализировать несколько разных структурированных и неструктурированных источников данных.
Технология может применяться в организации средних размеров, когда большие данные недоступны, но есть возможность объединения данных из широкого спектра разрозненных источников. Как правило, речь идет о наборах данных, изолированных в разных хранилищах. Ранее подобная разрозненность осложняла совместное использование данных, поэтому одна из задач новой технологии состоит в возможности показать корреляции в областях, которые ранее не рассматривались как связанные.
Причинно-следственный ИИ
Причинно-следственный ИИ (Causal AI) представляет собой ряд методов, включая причинно-следственные графы и моделирование, для выявления причинно-следственных связей, что в конечном итоге позволяет улучшить процесс принятия решений.
Технология позволяет добиться более высокой эффективности за счет добавления знаний о предметной области и позволяет запустить ИИ-модели на базе меньших наборов данных.
За счет использования причинно-следственных связей реализуется повышение эффективности и автономности принятия решений, лучшая объяснимость, наблюдается повышение устойчивости, адаптивности и снижение предвзятости в системах ИИ. Согласно кривой Gartner за 2022 г., данная технология была на этапе запуска, и аналитики прогнозировали, что для того, чтобы причинноследственный ИИ вышел на плато продуктивности, потребуется от 5 до 10 лет.
Графы знаний
Графы знаний (Knowledge graphs) отражают информацию о мире наглядным способом, который зачастую проще для понимания и использования, чем другие типы моделей данных. На основе анализа структуры графа могут быть получены дополнительные знания об исследуемых сущностях.
Объединение сведений из графов знаний с обучающими выборками позволяет повысить точность работы алгоритмов машинного обучения и обеспечить объяснимость получаемых результатов. Понятие «графы знаний» мы обсуждали в первой лекции, поэтому в данном разделе отметим только, что в 2021 г. Gartner поместила эту технологию как находящуюся на вершине цикла ажиотажа с перспективой выхода на плато продуктивности через 5-10 лет.
ИИ, основанный на физике
ИИ, основанный на физике (Physics Informed Artificial Intelligence, PIAI), — это процесс интеграции фундаментальных физических законов и знаний о предметной области в процесс обучения ML-моделей. Данная технология является фундаментальной, и о ней следует сказать чуть подробнее.
Несмотря на успехи в области машинного обучения, следует отметить, что возможности сбора и хранения данных на основе наблюдений существенно опережают возможности их анализа, интерпретации и извлечения знаний из этих данных.
Кроме того, модели, основанные исключительно на данных, как правило, хорошо описывают наблюдения, но предсказания на основе таких моделей могут быть физически противоречивыми. Поэтому и появляется необходимость в интеграции фундаментальных физических законов в процесс обучения ML-моделей, используя физические законы как теоретические ограничения в дополнение к закономерностям, полученным из наблюдений (из данных).
При моделировании поведения сложных объектов используют два подхода. Первый — это мультифизическое моделирование на базе решения дифференциальных уравнений, когда физический процесс описывается уравнениями в частных производных и задача решается тем или иным численным методом. Задаются краевые условия в виде начальных и граничных условий, а исторические данные позволяют определить параметры модели. Модель может прогнозировать поведение в широких пределах исходных данных и, например, моделировать запредельные режимы (недостижимые объектом в реальной эксплуатации).
Второй подход — это построение цифровой модели поведения объекта на основе данных, накопленных в процессе различных фактических режимов его эксплуатации. В этом случае модель обучается на данных и воспроизводит закономерности, извлекаемые из этих данных. Подобная модель отрабатывает поведение объекта только в тех режимах эксплуатации, которые фактически наблюдались в работе оборудования и накоплены в регистрируемых данных.
Можно сказать, что в первом случае мы исходим из того, что наука позволила выявить классы физических процессов, описываемых одной и той же системой дифференциальных уравнений. Во втором случае мы подбираем модель, максимально точно описывающую совокупность имеющихся данных, не вдаваясь в физику процесса.
Каждый из подходов имеет свои сильные и слабые стороны. Несмотря на прогресс в постановке и решении мультифизических задач, описываемых уравнениями в частных производных с помощью численной дискретизации расчетной области, в целом ряде случаев невозможно получить решения при моделировании поведения материалов, имеющих сложную неоднородную структуру, подчас у расчетчиков нет данных о поведении материалов (например, в нужном интервале температур, необходимых для проведения численного эксперимента), генерация сеток в ряде случаев остается сложной, и многие практические задачи требуют слишком высоких вычислительных ресурсов. Поэтому машинное обучение все чаще выступает перспективной альтернативой для решения подобных задач.
С другой стороны, обучение глубоких нейронных сетей требует больших данных, которые не всегда доступны. В условиях отсутствия больших данных нейронные сети могут быть обучены на основе дополнительной информации, полученной в результате применения физических законов в определенных точках пространственно-временного континуума.
Посути, ИИ, основанный на физике, позволяет интегрировать модели, основанные на данных, и модели, основанные на решении дифференциальных уравнений даже в частично определенных и высокоразмерных задачах. Иными словами, упомянутая технология позволяет включать в ИИ-модели физические знания о предметной области непосредственно на уровне нейросетевых архитектур. Это становится возможным, поскольку нейросетевые фреймворки обладают всеми необходимыми механизмами, чтобы выразить в рамках моделей зависимости, описываемые уравнениями в частных производных.
За счет интеграции в модель дополнительных ограничений на основе физических законов такие модели могут делать прогнозы на основе значительно меньшего количества данных.
Если цифровые модели, основанные исключительно на ИИ, не обязательно подчиняются фундаментальным законам физики и, как правило, не могут хорошо обобщать сценарии, на которых они не были обучены (что ограничивает их адаптивность), то PIAI лишено указанных недостатков и, как правило, обеспечивает сокращение времени обучения модели. PIAI позволяет обучать модели на меньшем объеме данных создавать более научно обоснованные модели и, соответственно, делать более надежные прогнозы для новых сценариев
Аналитики сходятся во мнении, что люди захотят не только устранять свои недуги с помощью интерфейса «мозг — компьютер», но также пожелают усовершенствовать свои физические и ментальные способности сверх биологической нормы. Новые интерфейсы позволят людям оперировать огромными массивами информации, взаимодействовать напрямую с машинами и друг с другом принципиально новыми способами. Мы уже обсуждали возможности данной технологии в разделе, посвященном этическим проблемам, связанным с развитием ИИ-систем. Здесь лишь отметим, что на рис. 5.2, представленном в 2020 г., данная технология обозначена как выходящая на плато через 6-8 лет.
Как было отмечено ранее, методы машинного обучения, и искусственные нейронные сети в частности, сталкиваются с ограничениями в плане объяснения причинноследственных связей. Отсутствие прозрачности и интерпретируемости моделей ИИ известно как узкое место для широкого внедрения этих технологий в производство. Подходы PIAI позволяют преодолеть эти проблемы.
Модели, построенные на данных, определяются этими данными. Например, такие события, как неисправности работы оборудования, которые происходят редко, подчас не отражаются в данных, и модели, построенные на указанных типах данных, могут привести к ошибочному представлению о поведении этого оборудования в критической ситуации.
Понимание принципов работы модели определяет степень доверия к ней. Вместо того чтобы рассматривать все отношения данных как «черныйящик»,интегрированный подход позволяет наложить на данные некоторые физические уравнения, например закон сохранения энергии, чтобы алгоритм машинного обучения балансировал между закономерностями, заложенными в данных, и законами, определяемыми физикой. Говорят, что подобный подход позволяет превратить «черный ящик» в «серый ящик».
На рисунке 5.3 схематично показаны три возможные категории физических проблем и соответствующие доступные данные.
В режиме малых данных предполагается, что имеется физическая модель процесса, и данные предоставляются для определения (задания) начальных и граничных условий, а также для определения параметров дифференциального уравнения. Наиболее частым является режим (средний на рисунке), когда известны некоторые данные и некоторая информация о физике процесса, но, возможно, отсутствуют некоторые значения параметров в дифференциальном уравнении. И наконец, существует режим с большими данными, когда можно не знать никакой физики и где подход, основанный на данных, может быть наиболее эффективным. Машинное обучение на основе физики может интегрировать данные и управляющие физические законы, включая модели с частично отсутствующей физикой.
ИИ-инженерия
ИИ-инженерия (AI engineering) — это область исследований и практика, в которой сочетаются принципы системной инженерии, программной инженерии, информатики и проектирования для создания систем ИИ, обеспечивающих достижение результатов решаемой задачи.
По мере внедрения систем ИИ предприятия все чаще сталкиваются с проблемами масштабируемости и операционной эффективности ИИ-решений. Инжиниринг ИИ обеспечивает операционную эффективность и экономию от масштаба за счет надежности, воспроизводимости и возможности повторного использования ИИ-моделей.