Ссылка на оригинал: У искусственного интеллекта появился собственный кодекс — Факультет Медицинского Права (kormed.ru)
Межведомственная рабочая группа при Минздраве РФ по вопросам создания, развития и внедрения в клиническую практику медизделий и сервисов с использованием технологий искусственного интеллекта (ИИ) утвердила Кодекс этики применения ИИ в сфере охраны здоровья (Кодекс). Что это за документ, для чего его приняли, какие требования он вводит для ИИ — разберём далее.
Субъекты и их роли
Субъекты – это лица, которые сами принимают участие в жизненном цикле системы ИИ при ее реализации на территории РФ или в отношении которых применяются такие системы. Это могут быть:
- физические лица, в том числе пациенты;
- некоммерческие организации и профсообщества;
- медорганизации всех форм собственности;
- образовательные учреждения;
- компании – разработчики, производители, операторы и владельцы ИИ;
- органы управления здравоохранения;
- независимые (локальные) этические комитеты.
В зависимости от роли субъектов системы ИИ Кодекс выделяет следующие категории:
- разработчик системы ИИ;
- заказчик или владелец;
- пользователь;
- оператор, обеспечивающий работу системы ИИ;
- регулятор, осуществляющий нормативно-техническую регламентацию использования систем ИИ (нормативные акты, инструкции, руководства и прочие документы);
- иные лица, на которых может повлиять применение систем ИИ.
Принципы применения ИИ
Доступность, качество, эффективность и безопасность меддеятельности с применением систем ИИ обеспечивается соблюдением основных принципов использования этих систем.
В первую очередь, системы ИИ в здравоохранении должны иметь ограниченную автономность и быть обратимыми. Система должна обеспечивать возможность проверки и одобрения субъектом всех ее решений, а также отказ от таких решений или их изменение.
Система ИИ должна быть прозрачной, а ее решения и алгоритм их принятия – понятными и объяснимыми.
Субъектам систем ИИ необходимо предоставлять обществу максимально правдивую и полную информацию об уровнях развития системы, ее возможностях, рисках, последствиях, сферах применении.
Разработчики не оставили без внимания конфиденциальность данных и безопасности пациентов – этот принцип также закреплен в Кодексе и обеспечивать его соблюдение должны субъекты системы ИИ.
Об ИИ, персональных данных и врачебной тайне мы писали здесь и здесь.
Согласно Кодексу при разработке и применении систем ИИ не допускается дискриминация по какому-либо признаку и гарантируется равный доступ к системе ИИ в зависимости от ее целей и задач.
Осознанность и подконтрольность
Отдельно отмечается, что субъекты системы ИИ при ее создании, экспертизе, применении, контроле должны соблюдать высокие стандарты профессионализма, выполнять свои обязанности и осознавать возможность своего влияния на общество и будущие технологии.
Использование систем ИИ в здравоохранении будет подотчетным. Для каждого из этапов жизненного цикла систем ИИ будут определены субъекты ИИ, принимающие на себя ответственность за воздействие систем на заинтересованных лиц и общество в целом. Это обеспечит комплексный контроль за применением технологий.
О практическом значении
Разработчики Кодекса уверяют, что реализация его принципов позволит расширить сферу применения ИИ в медицине, сформировать нравственную основу и повысить доверие граждан к таким технологиям.
Один из мотивов, по которым принят Кодекс, − повышенный риск причинения вреда здоровью пациентов в силу потенциальных ошибок обработки данных и знаний, а также рекомендаций, формируемых системами ИИ. Об этом мы рассказывали в нашем мониторинге.
Говорить, что рекомендательный документ, который содержит свод общих положений, способен снизить такие риски, пока не приходится. Насколько действенным он окажется, можно будет судить по практике его дальнейшего применения.