Профессиональный аккаунт
У вас пока нет действующего кабинета в МИС "МедЭлемент".
Создать кабинет частной практики?
Делимся с вами интересным мнением по использованию нейросетей в медицине.
Вячеслав Шуленин (СЕО, венчурный клуб "Синдикат") предлагает обдумать возможности и риски неизбежного расширения применения искусственного интеллекта в работе врача и уже начать обсуждение вопроса: "Кто несет ответственность, если ИИ допустит ошибку, которая причинит вред пациенту?".
Оригинал комментария - здесь
ИИ значительно ускорит темпы медицинских прорывов.
Об этом говорит Билл Гейтс в своей новой статье "The Age of AI has begun", делая акцент на революционном влиянии искусственного интеллекта на общество и подчеркивая его значительный потенциал в здравоохранении.
Прежде всего, ИИ поможет медицинским работникам, избавив их, например, от рутинной бумажной волокиты, использовать свое время с максимальной пользой и заботой о пациенте. Также, по мнению Гейтса, нейросети сделают медицину более доступной для людей по всему миру, особенно в бедных странах.
Но есть нюанс (его мы как раз обсуждали в @medtechmoscow с представителями ВШЭ, Сеченовского университета и другими коллегами), который в профессиональном сообществе воспринимается очень остро и вызывает ожесточенные дискуссии рабочих групп различных уровней – это многогранная этика.
Здесь и предвзятость, и дискриминация. Как и любое правило, высеченное кровью: алгоритмы ИИ хороши ровно настолько, насколько хороши данные, на которых они обучены. Если данные предвзяты или неполны, система выдает соответствующие результаты, которые могут дискриминировать определенные группы людей.
Конфиденциальность и безопасность – главные заповеди цифровой библии. Данные должны быть защищены для обеспечения конфиденциальности пациента и предотвращения несанкционированного доступа. Понятно, что есть в Сети – есть у всех, но хотя бы уберечь их от селфи-сливов постараться можно.
Ответственность и подотчетность. Поскольку ИИ-системы становятся все более сложными, может оказаться непросто распределить ответственность, если что-то пойдет не так, но это чисто человеческая история. GPT 4.0 близок, конечно, к этим хитросплетениям, но пока только выпрашивает у людей за деньги обойти капчу. Но все же единого ответа на вопрос "Кто несет ответственность, если ИИ допустит ошибку, которая причинит вред пациенту?" пока еще нет.
На текущем этапе важно осознавать как безграничный потенциал использования этой технологии, так и невозможность полноценной замены специалистов, потому как принятие решений – ответственность человека, и ни один компьютер или система не могут быть оценены как субъекты правовой и этической оценки действий, а также их последствий.
По крайней мере пока…
Прогресс неизбежно приведет к более совершенному ИИ, которому однажды, скорее всего, будет делегировано право решать, что есть хорошо и плохо, и даже определять судьбы людей.
Например, выносить приговоры и определять виновных вместо судьи, принимать и увольнять людей, выбирать, кому помочь из списка нуждающихся и т.д. Но принимать такие решения алгоритм будет на основе заложенных человеком критериев, что именно хорошо и плохо. И в разных странах эта норма может быть разной.
Дискуссии об этике ИИ считаю правильным начинать заблаговременно, то есть уже сейчас, чтобы в обществе родился компромисс, к которому нам прийти часто очень и очень сложно.