Hvor går grensen for "arbeidsfordelingen" i behandlings- og diagnoseeffektivitet?
AI i helsevesenet er ikke det samme som å "erstatte leger". For øyeblikket er AI best på "standardiserte høyintensive oppgaver", som medisinsk bildebehandling, legemiddelutvelgelse, automatisering av konsultasjonsprosesser og lignende områder. For eksempel, i bildebehandling, presterer AI-modellen utviklet av Google Health bedre enn erfarne radiologer i screening for brystkreft. Systemet har lært seg subtile tegn på sykdom ved å trene på millioner av bryst røntgenbilder, med en nøyaktighet på over 94%, og en falsk positiv rate som er betydelig lavere enn manuell diagnose.
Men det AI er flink til, er ikke "klinisk intuisjon" eller "flere komplekse vurderinger". For eksempel, for en pasient som presenterer seg med hodepine, feber og tretthet, vil en menneskelig lege foreslå en diagnose basert på en helhetlig vurdering av tidligere sykehistorie, fysisk undersøkelse og klinisk erfaring; mens AI-systemer ofte er mer avhengige av "spørreskjema-inndata", og gir forslag uten faktisk kontakt og situasjonsvurdering, noe som gjør nøyaktigheten sårbar for informasjonsstruktur. Derfor er det mer rimelig å forstå at "AI kan gjøre en del av det leger er flinke til", snarere enn "AI kan gjøre alt leger kan gjøre".
Essensen av AI "konsultasjon" er datamodellering
Mange menneskers førsteinntrykk av AI-leger kommer fra noen "smarte konsultasjons" plattformer eller apper. Etter at brukeren har skrevet inn symptomer, gir systemet et foreløpig diagnoseforslag og anbefaler spesialavdeling. Den underliggende teknologiske prinsippet er hovedsakelig en kombinasjon av naturlig språkbehandling (NLP) og beslutningstre-modellering. AI-systemet bygger et nettverk av sammenhenger mellom symptomer og årsaker ved kontinuerlig å "lese" pasientdata og medisinske retningslinjer.
For eksempel, AI-konsultasjonssystemet "Fremtidens sykehus" lansert av Alibaba Health, er basert på titalls millioner elektroniske pasientjournaler og helseforsikringsopptegnelser, og har høy samsvar for vanlige sykdommer. Når brukeren skriver inn "sår hals, rennende nese, hoste", kan systemet på noen sekunder vurdere at det er høyere sannsynlighet for en øvre luftveisinfeksjon, og anbefale en konsultasjon med øre-nese-hals-spesialist.
Imidlertid er problemene med slike konsultasjonssystemer åpenbare. For det første er de avhengige av nøyaktigheten av pasientens inndata, og kan ikke erstatte fysisk undersøkelse eller biokjemiske indikatorer; for det andre er deres evne til å vurdere overlappende symptomer eller sjeldne sykdommer begrenset. Det mest kritiske er at deres forslag ofte er basert på "sannsynlighetsresonnement" snarere enn "kausal logikk", og mangler en ekte klinisk vurderings- og resonnementprosess. Derfor, i praktisk bruk, fungerer det mer som en "medisinsk kunnskapssøker", snarere enn en ekte klinisk lege.

Medisinsk bildebehandling er AI's hovedarena for å vise styrke
Hvis AI fortsatt virker "umoden" i konsultasjonsscenarier, så er AI's prestasjoner i medisinsk bildeanalyse "imponerende". Fremskrittet innen AI-bildebehandlingsteknologi skyldes den omfattende bruken av dyp læring, spesielt konvolusjonsnevrale nettverk (CNN). Regelmessigheten i medisinske bilder og det høye standardiserte merkingssystemet gir ideelle forhold for AI-trening.
Innen screening for lungeknuter, identifisering av diabetisk netthinnesykdom, og identifisering av hjerne-CT-blødninger, har flere AI-systemer allerede blitt brukt i kliniske pilotprosjekter. For eksempel, Tencent's "Miying" har i tidlig screening for lungekreft, ved hjelp av AI-modeller, identifisert mistenkelige knuter i CT-bilder med en sensitivitet på over 95%, og økt tidlig lungekreft oppdagelsesrate med 30%. På samme måte har DeepMind utviklet et system for identifisering av fundusbilder som allerede har blitt klinisk verifisert i det britiske nasjonale helsevesenet, og kan avgjøre om netthinnebildet er unormalt innen 10 sekunder, og hjelpe leger med å bestemme om henvisning er nødvendig.
Den felles fordelen med disse teknologiene er: rask, effektiv, nøyaktig. AI blir ikke sliten, påvirkes ikke av subjektive preferanser, og kan hjelpe leger med å håndtere store datamengder, og forbedre screeningeffektiviteten. Men den har også svakheter - evnen til å identifisere nye sykdommer og unormale presentasjoner avhenger fortsatt av treningsprøver. Hvis bildeegenskaper ikke har blitt presentert i dataene, vil AI ha vanskeligheter med å resonnere fleksibelt eller "generaliserer", noe som også er en viktig grunn til at den alltid må suppleres med menneskelig gjennomgang.
Har AI-assistert behandling kommet inn i ekte sykehus?
I Kina har flere sykehus allerede innført AI-assisterte systemer for første diagnose, reseptgjennomgang, patologisk analyse og andre prosesser. For eksempel, "Alpha Doctor" systemet som er tatt i bruk av Zhejiang University School of Medicine's andre sykehus, kan veilede pasienter til å fylle ut konsultasjonsinformasjon i venterommet, foreløpig vurdere årsaken til sykdommen og gi behandlingsanbefalinger; systemet kan til og med automatisk generere et utkast til elektronisk pasientjournal etter at legen har stilt diagnosen, noe som betydelig reduserer legens administrative byrde.
Ved Zhongshan Hospital i Shanghai kan AI-systemet utføre CT-bildeanalyse for pasienter med mistenkt koronar hjertesykdom, og gi leger en kvantitativ referanse for graden av innsnevring, og spare mye tid på manuelle målinger. I tillegg brukes AI også til arkivering av pasientjournaler, helseforsikringsoppgjør, pasientoppfølging og andre ikke-direkte behandlingsprosesser, og forbedrer sykehusets informasjonsdriftseffektivitet.
Imidlertid er de fleste av disse "klinisk inntrengende" AI-systemene fortsatt "støtteroller", ikke "beslutningshovedroller". Uansett om det gjelder diagnose, behandling eller medikamentering, må AI-forslag alltid vurderes og signeres av en autorisert lege. Årsaken er ikke at AI's ytelse er utilstrekkelig, men at det involverer ekstremt strenge medisinske etiske, juridiske ansvar og pasientsikkerhetsproblemer. I det eksisterende helsevesenet kan AI bare bli et "verktøy", ikke "ansvarlig enhet".
Medisinsk etikk og ansvarserkjennelse er fortsatt den største utfordringen
Den største utfordringen for AI i helsevesenet ligger ikke i teknologien, men i etikk og lov. Et av de mest realistiske spørsmålene er: Når AI gir feil diagnose som fører til forsinket behandling eller negative konsekvenser, hvem er ansvarlig? For øyeblikket har ikke de globale ledende helsevesenene utviklet et modent ansvarssystem for AI. I Kina må alle behandlingshandlinger utføres av autoriserte leger, og hvis AI-systemet gir forslag, må legen fortsatt ta ansvar hvis de ikke vurderer det rimelig.
I tillegg er "black box"-problemet med AI-systemer også bekymringsfullt. Mange dype læringsmodellers beslutningsprosesser er ikke transparente, og det er vanskelig å gi klare "diagnosegrunner", noe som strider mot prinsippet om "sporbarhet" i medisin. For eksempel, hvis en AI anbefaler en bestemt behandlingsplan, men blir spurt "hva er grunnlaget?", kan systemet kanskje ikke gi en forklarende vei. I slike tilfeller er det vanskelig å bygge tillit hos pasienten, og legen tør ikke å ta det i bruk.
Videre er AI-trening sterkt avhengig av store mengder medisinske data, og disse dataene involverer ofte personvern, etikk og sikkerhetsproblemer. Hvis datakildene er uklare eller merkingen er unormal, kan det føre til systematiske skjevheter i modellen. For eksempel har et AI-system tidligere hatt store feil i brystkreftidentifikasjon på grunn av en for lav andel kvinnelige prøver i treningssettet, noe som viser "kjønnsskjevhet". Derfor er fremveksten av AI-leger ikke bare et teknologisk spørsmål, men også en helhetlig utfordring for moralske og juridiske systemer.
Fremtidig vei er integrering, ikke erstatning
Utviklingsveien for AI-leger bør ikke styres av "erstatningsteorien", men bør tilbake til essensen av helsevesenet - å tjene menneskehetens helse. Den mest lovende retningen for øyeblikket er "menneske-maskin samarbeid", der AI tar på seg strukturerte, repeterende oppgaver, og frigjør legens energi, slik at de kan fokusere på personlig vurdering, human kommunikasjon og komplekse beslutninger.
For eksempel, i kronisk sykdomsforvaltning kan AI analysere pasientens langsiktige blodsukker, blodtrykk, vekt og andre data, gi trendvarsler og informasjon, og hjelpe leger med å intervenere tidlig; i telemedisin kan AI gjøre forhåndsvurderinger av bilder og rapporter, slik at leger kan betjene avsidesliggende områder mer effektivt; i klinisk undervisning kan AI hjelpe leger med å trene nybegynnere, gi simulerte resonnementstilfeller, og forbedre undervisningskvaliteten.
En dypere trend er etableringen av etiske rammer for AI i medisin og regulering av styring. Fremover kan "medisinsk tilgang" for AI ha et enhetlig vurderingssystem, som tydelig definerer grensene for "kan anbefales" og "kan ikke besluttes". Samtidig må AI-systemer også styrke designet for "forklarbarhet" for å øke offentlig tillit.
Fra "verktøy" til "partner", har AI-leger fortsatt en lang vei å gå. De kan kanskje aldri erstatte den varme "kliniske blikket", men de kan bli den mest kraftfulle intelligente assistenten ved legens side. Og dette er nettopp det mest forventede målet for AI i helsevesenet.