ПОДІЛИТИСЯ | ДРУКУВАТИ | ЕЛЕКТРОННА ПОШТА
Мій досвід у медицині дозволяє мені розрізняти справжні інновації та ледь помітну перекласифікацію, яка фундаментально змінює практику, водночас залишаючись незмінною. Штучний інтелект нещодавно привернув значну увагу, зокрема широко поширене твердження про те, що ШІ «отримав законне право займатися медичною практикою» у Сполучених Штатах. Якщо тлумачити це твердження буквально, воно є неточним. Жодна медична рада не ліцензувала машину. Жоден алгоритм не склав присяги, не взяв на себе фідуціарних обов'язків і не взяв на себе особисту відповідальність за шкоду, завдану пацієнтам. Жоден лікар-робот не відкриває клініку, не виставляє рахунки страховикам і не постає перед судом присяжних за медичну недбалість.
Однак, зупиняючись на цьому спостереженні, ми не помічаємо ширшого питання. Правові поняття відповідальності зараз переглядаються, часто без відома громадськості.
Відбувається значна трансформація, яка вимагає не лише рефлекторного відкидання чи некритичного технологічного ентузіазму. Поточний розвиток — це не ліцензування штучного інтелекту як лікаря, а радше поступове розмивання ключової межі медицини: невід'ємного зв'язку між клінічним судженням та людською відповідальністю. Клінічне судження передбачає прийняття обґрунтованих рішень, адаптованих до унікальних потреб та обставин кожного пацієнта, що вимагає емпатії, інтуїції та глибокого розуміння медичної етики.
Людська відповідальність стосується відповідальності, яку медичні працівники беруть на себе за ці рішення та їхні результати. Ця ерозія не є результатом драматичного законодавства чи публічних дебатів, а відбувається непомітно через пілотні програми, переосмислення нормативних актів та мову, яка навмисно приховує відповідальність. Як тільки ця межа розчиняється, медицина трансформується таким чином, що її важко повернути назад.
Головне питання не в тому, чи зможе штучний інтелект поновлювати рецепти чи виявляти аномальні результати лабораторних досліджень. Медицина давно використовує інструменти, і медичні працівники загалом вітають допомогу, яка зменшує адміністративні завдання або покращує розпізнавання образів. Справжнє питання полягає в тому, чи можна розглядати медичне судження – рішення про правильні дії, пацієнтів та ризики – як результат, згенерований комп’ютером, відокремлений від моральної відповідальності. Історично склалося так, що спроби відокремити судження від підзвітності часто завдавали шкоди без участі відповідальності.
Нещодавні події прояснюють причини поточної плутанини. У кількох штатах обмежені пілотні програми тепер дозволяють системам на базі штучного інтелекту допомагати з поновленням рецептів на стабільні хронічні захворювання за вузько визначеними протоколами. На федеральному рівні в запропонованому законодавстві розглядалося питання про те, чи може штучний інтелект кваліфікуватися як «практик» для конкретних законодавчих цілей, за умови належного регулювання. Ці ініціативи зазвичай представляють як прагматичні відповіді на нестачу лікарів, затримки доступу та адміністративну неефективність. Хоча жодна з них прямо не визначає штучний інтелект як лікаря, разом вони нормалізують більш тривожну передумову, що медичні дії можуть відбуватися без чітко ідентифікованої людини, яка приймає рішення.
На практиці ця відмінність є фундаментальною. Медицина визначається не механічним виконанням завдань, а розподілом відповідальності, коли результати несприятливі. Виписати рецепт – це просто; прийняти відповідальність за його наслідки, особливо з урахуванням супутніх захворювань, соціального контексту, цінностей пацієнта або неповної інформації, – набагато складніше. Протягом моєї кар'єри ця відповідальність постійно лежала на людині, яку можна було запитати, оскаржувати, виправляти та притягувати до відповідальності. Коли доктор Сміт робить помилку, родина знає, з ким зв'язатися, забезпечуючи прямий зв'язок з людською відповідальністю. Жоден алгоритм, незалежно від його складності, не може виконати цю роль.
Основний ризик полягає не в технологічному, а в регуляторному та філософському аспектах. Цей перехід являє собою зсув від етики чеснот до процедуралізму. Коли законодавці та установи переосмислюють прийняття медичних рішень як функцію систем, а не особистих дій, змінюється моральна основа медицини. Підзвітність стає розмитою, шкоду важче приписати, а відповідальність переходить від клініцистів до процесів, від суджень до дотримання протоколу. Коли неминуче трапляються помилки, переважаючим поясненням стає те, що «система дотримувалася встановлених рекомендацій». Визнання цього переходу пояснює перехід від індивідуалізованого етичного прийняття рішень до механізованого дотримання процедур.
Це занепокоєння не є теоретичним. Сучасна охорона здоров'я вже стикається з проблемами, пов'язаними з розмиванням відповідальності. Я спостерігав, як пацієнти, яким загрожують рішення, прийняті на основі алгоритмів, губляться серед адміністраторів, постачальників та непрозорих моделей, не маючи чіткої відповіді на фундаментальне питання: хто прийняв це рішення? Штучний інтелект значно посилює цю проблему. Алгоритм не може надавати моральних пояснень, стримуватися, виходячи з совісті, відмовлятися від дій через етичні міркування або визнавати помилку перед пацієнтом чи його родиною.
Прихильники посилення автономії штучного інтелекту часто посилаються на ефективність як виправдання. Клініки перевантажені, лікарі відчувають виснаження, а пацієнти часто чекають місяцями на допомогу, яка повинна тривати лише кілька хвилин. Ці побоювання є законними, і будь-який чесний клініцист їх визнає. Однак сама лише ефективність не виправдовує зміни етичних основ медицини. Системи, оптимізовані для швидкості та масштабу, часто жертвують нюансами, дискретністю та індивідуальною гідністю. Історично медицина чинила опір цій тенденції, наголошуючи на тому, що допомога — це, по суті, стосунки, а не транзакція.
Штучний інтелект ризикує порушити ці відносини. Коли системи, а не окремі особи, надають допомогу, пацієнт більше не бере на себе договір з клініцистом, а стає частиною робочого процесу. Лікар бере на себе роль керівника машини або, що ще більш тривожно, служить юридичним буфером, який поглинає відповідальність за рішення, не прийняті особисто. З часом клінічне судження поступається місцем дотриманню протоколу, а моральна свобода дій поступово зменшується.
Штучний інтелект також створює більш тонку та небезпечну проблему: маскування невизначеності. Медицина живе в умовах неоднозначності. Докази мають ймовірнісний характер. Керівні принципи є попередніми. Пацієнти рідко мають чіткі набори даних. Клініцистів навчають не просто діяти, а й вагатися — розпізнавати, коли інформації недостатньо, коли втручання може завдати більше шкоди, ніж користі, або коли правильним курсом є очікування. Уявіть собі сценарій, у якому ШІ рекомендує виписку, але чоловік/дружина пацієнта виглядає наляканою, що підкреслює напругу між алгоритмічним прийняттям рішень та людською інтуїцією. Такі реальні тертя підкреслюють важливість неоднозначності.
Системи штучного інтелекту не відчувають невизначеності; вони генерують вихідні дані. Коли вони неправильні, вони часто роблять це з невиправданою впевненістю. Ця характеристика не є недоліком програмування, а невід'ємною рисою статистичного моделювання. На відміну від досвідчених клініцистів, які відкрито висловлюють сумніви, моделі на великих мовах та системи машинного навчання не можуть розпізнати власні обмеження. Вони створюють правдоподібні відповіді, навіть коли даних недостатньо. У медицині правдоподібність без обґрунтування може бути небезпечною.
Оскільки ці системи інтегруються раніше в клінічні робочі процеси, їхні результати дедалі більше впливають на подальші рішення. З часом клініцисти можуть почати довіряти рекомендаціям не через їхню обґрунтованість, а тому, що вони стали нормалізованими. Судження поступово переходять від активного мислення до пасивного прийняття. За таких обставин «людина в циклі» служить не більше ніж символічним запобіжним заходом.
Прихильники ШІ часто стверджують, що він лише «доповнить» клініцистів, а не замінить їх. Однак ця впевненість є ненадійною. Щойно ШІ демонструє підвищення ефективності, економічний та інституційний тиск, як правило, спонукає до збільшення автономії. Якщо система може безпечно поновлювати рецепти, їй незабаром може бути дозволено ініціювати їх. Якщо вона може точно діагностувати поширені захворювання, необхідність огляду лікарем ставиться під сумнів. Якщо вона перевершує людей у контрольованих показниках, толерантність до людської мінливості зменшується.
З огляду на ці тенденції, впровадження конкретних запобіжних заходів є надзвичайно важливим. Наприклад, обов'язкові перевірки невідповідностей 5% рішень, прийнятих на основі штучного інтелекту, можуть слугувати конкретною перевіркою, забезпечуючи узгодженість рекомендацій щодо ШІ з клінічними судженнями людини, водночас надаючи регуляторним органам та радам лікарень дієві показники для моніторингу інтеграції ШІ.
Ці питання не ставляться зі злим наміром; вони виникають природно в системах, орієнтованих на стримування витрат та масштабованість. Однак вони вказують на майбутнє, де людське судження стане винятком, а не нормою. За такого сценарію люди з ресурсами продовжуватимуть отримувати людську допомогу, тоді як інші будуть спрямовуватися через автоматизовані процеси. Дворівнева медицина буде результатом не ідеології, а оптимізації.
Особливо небезпечним цей момент робить відсутність чітких ліній відповідальності. Коли рішення, прийняте на основі штучного інтелекту, шкодить пацієнту, хто несе відповідальність? Чи номінально клініцист контролює систему? Заклад, який її розгорнув? Постачальник, який навчив модель? Регулятор, який схвалив її використання? Без чітких відповідей відповідальність зникає. А коли відповідальність зникає, незабаром з'являється довіра.
Медицина фундаментально залежить від довіри. Пацієнти довіряють свої тіла, страхи, а часто й життя, до рук клініцистів. Цю довіру неможливо перенести на алгоритм, незалежно від його складності. Вона ґрунтується на впевненості в присутності людини — когось, хто здатний слухати, адаптуватися та нести відповідальність за свої дії.
Повна відмова від штучного інтелекту є зайвою. За умови розумного використання ШІ може зменшити канцелярське навантаження, виявити закономірності, які можуть вислизати від людського виявлення, та допомогти у прийнятті клінічних рішень. Це може дозволити лікарям присвячувати більше часу догляду за пацієнтами, а не адміністративним завданням. Однак реалізація такого майбутнього вимагає чіткого зобов'язання щодо збереження людської відповідальності в основі медичної практики.
«Людина в процесі» має означати більше, ніж просто символічний нагляд. Він має вимагати, щоб конкретна особа була відповідальною за кожне медичне рішення, розуміла його обґрунтування та зберігала як повноваження, так і зобов'язання скасовувати алгоритмічні рекомендації. Він також повинен передбачати прозорість, пояснимість та інформовану згоду пацієнта, а також зобов'язання інвестувати в клініцистів-людей, а не замінювати їх штучним інтелектом.
Основний ризик полягає не в надмірній потужності штучного інтелекту, а в готовності установ відмовитися від відповідальності. У прагненні до ефективності та інновацій існує небезпека того, що медицина стане технічно розвиненою, адміністративно спрощеною галуззю, яка, однак, не матиме моральної сутності.
Розмірковуючи про майбутнє, важливо запитати себе: якого цілителя ми уявляємо біля ліжка хворого у 2035 році? Це питання вимагає колективної моральної уяви, спонукаючи нас формувати майбутнє, де людська відповідальність та співчутлива турбота залишатимуться в основі медичної практики. Мобілізація колективної діяльності матиме вирішальне значення для забезпечення того, щоб досягнення у сфері штучного інтелекту посилювали, а не підривали ці фундаментальні цінності.
Штучний інтелект не отримав ліцензії на медичну практику. Але медицина непомітно перепроектовується навколо систем, які не мають моральної ваги. Якщо цей процес продовжуватиметься безконтрольно, одного дня ми можемо виявити, що лікаря замінила не машина, а протокол, і що коли трапляється шкода, не залишиться нікого, хто б за неї відповідав.
Це не було б прогресом. Це було б зреченням.
-
Джозеф Варон, доктор медичних наук, є лікарем-реаніматором, професором і президентом Незалежного медичного альянсу. Він є автором понад 980 рецензованих публікацій і є головним редактором журналу «Журнал незалежної медицини».
Переглянути всі повідомлення