Künstliche Intelligenz in der Medizin

Teilbereich der künstlichen Intelligenz
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 14. Februar 2021 um 11:40 Uhr durch Sugarmaster (Diskussion | Beiträge) (Regulatorisches als Abschnitt neu eingefügt und mit Quelle belegt). Sie kann sich erheblich von der aktuellen Version unterscheiden.

Künstliche Intelligenz in der Medizin ist ein stark wachsender Teilbereich der künstlichen Intelligenz (KI), bei dem digital vorliegende Informationen ausgewertet werden, um möglichst aussagekräftige Diagnosen zu stellen und bzw. oder optimierte Therapien vorzuschlagen. Gleichzeitig bestehen Bedenken und Ängste, dass die Maschine den Menschen ersetzen bzw. zurückdrängen könnte[1].

Röntgenaufnahme einer Hand mit automatischer Ermittlung der Skelettreife durch Software mithilfe künstlicher Intelligenz

Diagnostik

Computer Vision für bildgebende Diagnostik

Künstliche Intelligenz spielt eine Rolle in der bildgebenden Diagnostik. Die Auswertung von Bildern mit statistischen und lernenden Methoden wird auch unter dem Fachbereich Radiomics zusammengefasst. Dabei werden Ärzte im Rahmen von Entscheidungsunterstützungssystemen unterstützt. Durch den Einsatz dieser Methoden ist es beispielsweise möglich, den Typ der Krebszellen genauer zu bestimmen, da die Unterscheidungsmerkmale oft schwer mit dem menschlichen Auge zu erkennen sind. Dies ist im Rahmen der Präzisionsmedizin wichtig, um eine zielgerichtete Therapie vorzuschlagen. Je nach Typ des Krebs sind teils unterschiedliche Therapien notwendig oder sinnvoll. Eingesetzt wird Radiomics etwa zur Klassifizierung von Tumoren unter anderem in Lunge, Brust, Gehirn und Haut.[2]

Onkologie

Die bisher größte, web-basierte und international durchgeführte Studie zur automatisierten Hautkrebsdiagnose unter Leitung der Medizinischen Universität Wien verglich 511 Mediziner aus 63 Ländern gegen 139 Algorithmen (zumeist basierend auf neuronalen Netzwerken, CNN) in der Erkennung von Hautkrebs an dermatoskopischen Bildern.[3] Im Gegensatz zu anderen Studien mussten nicht nur zwei Arten von Hautveränderungen (Muttermale und Melanome) erkannt werden, sondern die sieben häufigsten pigmentierten Hautveränderungen.[4] In der Studie zeigte sich – im experimentellen Setting – nicht nur eine klare Überlegenheit der besten Algorithmen, sondern auch, dass bereits „durchschnittliche“ Maschinen ähnlich gut oder besser Kategorien erkennen konnten als Mediziner.

In einer internationalen Studie der Universität Heidelberg, bei der 58 Dermatologen aus 17 Ländern gegen ein faltendes neuronales Netzwerk im Vergleichstest antraten, fand sich ebenfalls eine Überlegenheit des neuronalen Netzwerks zu Dermatologen in der Erkennung von Melanomen, jedoch nicht, sobald Dermatologen zusätzliche Informationen wie Alter, Geschlecht und Lage der Läsion erhielten. Die Richtig-negativ-Rate lag bei den Dermatologen jedoch mit 75,7 Prozent deutlich über der des Netzwerkes, das nur 63,8 Prozent der ungefährlichen Muttermale als solche erkannte. Die Forscher betonten, dass künstliche Intelligenz die Ärzte bei der Diagnose von Hautkrebs unterstützen, sie aber nicht ersetzen könne.[5] Es gibt weitere Studien in größeren bzw. internationalen Rahmen,[6][7][8] oder kleinen bzw. lokalen Rahmen.[9][10][11][12]

Obwohl die Meinung zu diesen Techniken auch bei Dermatologen großteils positiv scheint,[13] und sich erste Ergebnisse zum Vorteil der Kollaboration zwischen Mensch und Maschine zeigen,[14] mahnen einige Wissenschaftler und Kliniker zur Vorsicht bei der Anwendung dieser Techniken.[15][16] Viele Firmen arbeiten auch an der Kommerzialisierung dieser Projekte, manche auf Basis von Hardware wie Infrarot-Lasertrahlen,[17] manche auf Basis von Dermatoskopie,[18][19] Für Smartphones gibt es bereits seit Jahren eine Reihe häufig kostenpflichtiger Apps, die Hautkrebs anhand eines Fotos erkennen sollen, aber meist nicht auf neuen Techniken wie neuronalen Netzwerken basieren. Eine wissenschaftliche Aufarbeitung konnte zeigen, dass keine der getesteten Applikationen eine ausreichende Genauigkeit, und damit Nutzen für Patienten aufgewiesen hat.[20] Der Dermatologe und Versorgungsforscher Matthias Augustin sieht diese ebenfalls kritisch, da es zu Anwendungsfehlern und Falschdiagnosen kommen könnte, die Laien nicht richtig einschätzen könnten.[21]

In einem wissenschaftlichen Wettbewerb zur automatisierten Erkennung von Brustkrebszellen (Diagnose von Metastasen in Sentinel-Node-Biopsien) traten jeweils 32 Programme von 23 Teams gegen ein Team aus elf Pathologen an, die jeweils zwei Stunden Zeit zur Analyse von 129 Präparaten hatten. Eine Vergleichsgruppe bestand aus einem versierten Pathologen, der sich so viel Zeit nehmen durfte, wie er wollte, was allerdings nicht dem klinischen Alltag entspricht. Die Programme nutzten meist Convolutional Neural Networks. Sieben der Programme lieferten bessere Ergebnisse als die Gruppe der Pathologen. Die menschlichen Pathologen übersahen häufig Mikrometastasen, was den besseren Programmen nur selten passierte. Fünf der Programme waren sogar besser als der versierte Pathologe, der sich 30 Stunden Zeit für die Analyse nahm. Selbst dieser versierte Pathologe übersah ein Viertel der Mikrometastasen.[22] Wissenschaftler der Eötvös Universität in Budapest stellten im März 2018 eine KI vor, die bei einer Mammographie aus den Röntgenbildern der weiblichen Brust Brustkrebszellen mit gleicher Treffsicherheit – nämlich etwa 90 Prozent – erkennen kann wie ein erfahrener menschlicher Radiologe. Auch die Rate der falschpositiven Ergebnisse lag bei der Rate der Mediziner. Die Auswertung der Röntgenbilder durch Radiologen sei eine monotone, anstrengende, langwierige und fehleranfällige Arbeit.[23]

Die Darmspiegelung gilt als die sicherste Methode, um bösartige Tumore in Mast- und Dickdarm frühzeitig zu erkennen. Jährlich erkranken 61.000 Menschen in Deutschland an Darmkrebs. Bei einer Darmspiegelung entfernt der Arzt alle verdächtigen Wucherungen, sog. Polypen, egal ob die Wucherung gut- oder bösartig ist. Ob es sich um einen bösartigen Tumor (sog. Adenom) handelt, kann erst später im Labor festgestellt werden. Im Herbst 2018 setzten japanische Gastroenterologen in einem klinischen Test eine KI ein, die auf die Erkennung von bösartigen Tumoren im Darm trainiert wurde. Die Trefferrate lag bei 93 Prozent. Dabei werden Bilder aus dem Darm in 500-facher Vergrößerung an eine KI übermittelt, die dann innerhalb einer Sekunde erkennen kann, ob es sich bei dem Polyp um einen gut- oder bösartigen Tumor handelt. Der Arzt erhält dann eine Rückmeldung über einen Ton oder über einen Hinweis auf dem Bildschirm. Die KI soll weiter trainiert werden, um die Erkennungsrate noch zu verbessern. Dann könnte die KI in den Routinebetrieb gehen.[24]

Neurologie

Wissenschaftler an der University of California in San Francisco haben im Herbst 2018 eine Pilotstudie mit tiefen, künstlichen neuronalen Netzen im Journal Radiology vorgestellt, das anhand von Gehirnscans eine Alzheimererkrankung im Schnitt sechs Jahre vor der finalen Diagnose erkennen könne. Häufig werde Alzheimer von Ärzten erst dann diagnostiziert, wenn sich die ersten Symptome zeigen. Selbst erfahrenen Ärzten fällt es schwer, die bei Frühstadien auftretenden, kleinen Veränderungen im Gehirn zu erkennen und richtig einzuordnen. Deshalb könne die KI-gestütze Erkennung einen wichtigen Beitrag zur Früherkennung und damit zur Behandlung leisten. Das Netz erreichte eine Sensitivität von 100 %, bei einer Richtig-negativ-Rate von 82 %. Weitere Untersuchungen sollen folgen, um die Ergebnisse zu verifizieren.[25][26]

Pneumologie

Das Wiener KI-Labor Deep Insight veröffentlichte 2020 den Quellcode eines künstlichen neuronalen Netzwerkes, das darauf trainiert wurde, anhand von CT-Aufnahmen der Lunge zu klassifizieren, ob der Patient an COVID-19 leidet, sofern das Virus bereits die Lunge befallen hat. Das Netzwerk unterscheidet zwischen durch COVID-19 verursachte Veränderungen der Lunge, sonstigen pathologischen Befunden und Normalzustand.[27]

Ophthalmologie

In der Augenheilkunde konnte mit Künstlicher Intelligenz in Studien auf spezifischen Datensätzen eine Überlegenheit gegenüber Fachspezialisten gezeigt werden. Im Direktvergleich zwischen Deep Learning und 13 menschlichen Spezialisten wurden 25.326 Fundus-Fotografien (Fotos des Augenhintergrundes) von Diabetikern einer diagnostischen Bewertung der Diabetischen Retinopathie unterzogen. Die Sensitivität des Neuronalen Netzwerks lag bei 0,97 (0,74 bei den Spezialisten) und die Spezifität bei 0,96 (0,98).[28] Das Projekt wurde als Nachweis herausragender menschlicher Leistungen in dem AI Index Report 2019 als Meilenstein gewürdigt.[29]

Automatische Datenanalyse

Grundsätzlich ist der Krebs so individuell wie die Patienten selbst. Das ist der Grund, weshalb eine Therapie bei einem Patienten hilft und bei einem anderen nicht. Hier können KIs die Genanalyse von Patienten innerhalb von Minuten mit Millionen Daten anderer Patientenakten, Behandlungsformen, Forschungsaufsätzen abgleichen und so zu einer sehr präzisen Diagnose kommen, was man Präzisionsmedizin nennt und ohne den Einsatz von Computern nicht möglich wäre. Dies ist nicht nur auf die Krebsdiagnose beschränkt, sondern kann auch bei Herzinfarkten, Diabetes usw. eingesetzt werden. Wichtig dafür ist, dass die Daten in digitaler Form (anonymisiert) vorliegen. Google, IBM, Microsoft, Amazon usw. bieten dafür Plattformen, um derartige Daten hochzuladen und bereitzustellen.[30]

Beispielsweise konnte im August 2016 am Medical Institute der Universität Tokyo das Computerprogramm IBM Watson eine Fehldiagnose der Ärzte korrigieren. Die Ärzte diagnostizierten bei der Patientin eine akute myeloische Leukämie. Die Therapie blieb erfolglos, weswegen man Watson zu Rate zog. Die KI benötigte 10 Minuten, um die DNA der Frau mit 20 Millionen Krebsstudien abzugleichen. Watson erkannte eine sehr seltene Form der Leukämie, die bislang nur 41 Patienten betraf und heilbar ist.[31] Die Behandlungsvorschläge von IBM Watson können jedoch auch fehlerhaft sein, etwa, wenn zu wenig Trainingsdaten zur Verfügung stehen. Entsprechende Berichte über fehlerhafte Empfehlungen, deren Anwendung die Patienten gefährde, wurden 2018 von einem Medizinfachportal veröffentlicht. Die Fehlfunktion soll laut IBM in einer späteren Version behoben worden sein.[32]

Wissenschaftler der Universität Stanford haben im Januar 2018 eine KI vorgestellt, die mit einer Wahrscheinlichkeit von 90 Prozent bei unheilbar kranken Patienten aus den Krankendaten berechnen kann, ob diese innerhalb der nächsten 3 bis 12 Monate versterben werden. Dies könne unheilbar kranken Patienten helfen, die letzten Monate würdevoll und ohne aggressive Behandlungsmethoden und eventuell daheim unter Palliativversorgung zu verleben.[33]

Die Armbanduhr Apple Watch zeichnet unter anderem die Herzfrequenz eines Menschen auf. Apple gab bekannt, dass KIs mit einer Wahrscheinlichkeit von 85 Prozent aus der Analyse der Herzfrequenz Diabetes mellitus beim Träger der Armbanduhr feststellen können. Die Idee basiert auf der Framingham-Herzstudie, die bereits 2015 erkannte, dass man allein mit Hilfe der Herzfrequenz Diabetes diagnostizieren kann. Apple war es bereits früher schon gelungen, aus der Herzfrequenz einen abnormalen Herzrhythmus mit 97-prozentiger Wahrscheinlichkeit, Schlafapnoe mit 90 Prozent, Hypertonie (Bluthochdruck) mit 82 Prozent zu erkennen.[34]

Sprachverarbeitung

Forscher der Mount Sinai School of Medicine demonstrierten im Januar 2018, wie aus psychologischen Gesprächsprotokollen mit Jugendlichen erkennbar ist, ob diese in den nächsten zwei Jahren an einer Psychose erkranken. Die natürliche Sprachverarbeitung half, in standardisierten Tests bis zu 83 Prozent Genauigkeit zu erreichen, etwa anhand unorganisierter Gedankengänge, umständlicher Formulierungen, unklarer Assoziationen oder einer reduzierte Sprach-Komplexität. Die subtilen Unterschiede seien nach einem Training mit vielen solchen Gesprächen zu erkennen.[35][36]

Forscher des MIT stellten im September 2018 eine KI vor, die anhand von gesprochenem Text oder geschriebenem Text eine Depression bei Patienten diagnostizieren kann. An sich stellen Ärzte und Psychologen dem Patienten Fragen zu Lebensgewohnheiten, Verhaltensweisen und Befindlichkeiten, um aus Antworten die Depression zu diagnostizieren. Nach einem Training mit solchen Interviews erkannte das Programm auch anhand von Alltagsgesprächen eine Depression mit einer Trefferquote von 83 Prozent – und bei der Einordnung der Schwere der Depression auf einer Skala von 0 bis 27 mit einer 71 Prozent Trefferquote. Die KI könnte Ärzte bei unterstützen oder als App Benutzer permanent überwachen um im Notfall zu alarmieren. Die Forscher wollen aus der Sprache künftig auch eine Demenz erkennen.[37]

Die Gesundheitsapp Babylon Health soll laut Hersteller mit einem Sprachsystems (Chatbot), basierend auf einer KI, eine Diagnose im Gespräch mit Patienten erstellen können, die etwa zehnmal treffsicherer als Diagnosen eines Hausarztes sei. Die Entwicklung der App wurde auch vom britischen Gesundheitssystems mitfinanziert. Ziel war es, damit Kosten zu senken. Obwohl die App Arztbesuche deutlich reduzieren soll, fanden Patienten schnell heraus, wie man mit der App durch falsche Symptombeschreibungen schneller Arzttermine erhält.[38]

Die App Ada des Berliner Unternehmens Ada Health unterstützt bei Diagnosenstellungen anhand der Symptom-Beschreibung mit einer KI. Laut Hersteller soll dies der Qualität gut ausgebildeter westlicher Ärzte entsprechen. Die App Ada sandte unerlaubt Marketing-Unternehmen wie Amplitude und Adjust mit Hauptsitz San Francisco (USA) sowie im Verlauf der App-Nutzung regelmäßig Facebook.com personenbezogene Daten, auch wenn man kein Facebook-Konto hat.[39] Die App wurde vom MIT ausgezeichnet und wird von der Bill & Melinda-Gates-Stiftung gefördert. 2019 verkündete Ada Health eine Kooperation mit Sutter Health. Insbesondere in Entwicklungsländern, wo es an medizinischem Personal mangelt, kann die App helfen, ein Gesundheitssystem aufzubauen.[40][41]

Behördlich erteilte Zulassungen

Geräte oder Software, die künstliche Intelligenz verwenden müssen in Europa als Medizinprodukte eine CE-Kennzeichnung erhalten und in den USA durch die FDA zugelassen sein. Ein Vergleich zwischen USA und Europa in den Jahren 2015 bis 2020 erbrachte, eine schnell zunehmende Zahl von Zulassungen, wobei die CE-Markierung zahlenmäßig leicht dominiert (2019 USA 79, EU 100). Oft erfolgt die CE-Markierung vor der FDA-Zulassung, was auf ein weniger rigoroses Verfahren hindeuten könnte. Das Schwergewicht liegt bei der Radiologie. Nur 15% der Produkte wenden sich direkt an Privatpersonen (Patienten), der Rest an Fachpersonal (Ärzte). In diesem Zeitraum entfallen nur 1% der Zulassungen auf die höchsten Risikoklassen , z.B. solche für die Diagnose von Brustkrebs[42].

Mehr noch in Europa als in Amerika finden die Autoren der Studie einen Mangel an Transparenz in der Gerätebeschreibung und dem Prozess der Bewertung. Sie spiegelt die ethische Verantwortung der Regulierer genauso wie der Hersteller wieder. Auch wird eine öffentlich zugängliche Datenbank für CE-markierte Geräte und Software angemahnt.

Kritik und Streitfragen

Es ist umstritten, ob die hohe Treffergenauigkeit der KI etwa zur Diagnose von Krankheiten, die in manchen Studien angegeben wurden, in der Praxis gültig sind. Die Werte beziehen sich in der Regel auf vorher festgelegte, mitunter nicht repräsentative historische Datensätze. Beispielhaft wird eine Studie von Googles Tochterfirma DeepMind zur automatisierten Vorhersage von Nierenversagen kritisiert, die auf einem Datensatz durchgeführt wurde, der nur zu 6 % von weiblichen Patienten stammte. Die fehlende Variation in den Datensätzen könnte zu Computerprogrammen führen, die in ihrer Generalisierung stark eingeschränkt sind und in realen Einsatzszenarien nicht die erwünschte Genauigkeit liefern. Des Weiteren wird die noch nicht ausreichend vorhandene Erklärbarkeit der Systeme als Schwachpunkt angeführt.[43]

Pharmaforschung

In der Pharmaforschung hat sich das automatisierte Hochdurchsatz-Screening als Methode etabliert, sogenannte Hits und damit Kandidaten für Leitstrukturen zu finden. Britische Forscher der Universität Cambridge entwickelten die Automatisierung weiter. Der Forschungsroboter „Eve“, der 2015 in Journal of the Royal Society Interface vorgestellt wurde, verwendet statistische Modelle und maschinelles Lernen und produziert und testet damit Annahmen, prüft Beobachtungen, führt Experimente aus, interpretiert Ergebnisse, ändert Hypothesen und wiederholt dies immer wieder. Dadurch könne der Roboter vielversprechende Substanzen vorhersagen und damit das Finden von Leitstrukturen effizienter machen.[44][45] Mit Hilfe dieses Roboters fanden die Forscher 2018 heraus, dass Triclosan, das auch in Zahnpasta verwendet wird, Malaria-Infektionen in zwei kritischen Stadien, nämlich dem Befall der Leber und des Bluts, bekämpfen könnte. Mit der Entdeckung durch die KI könnte nun ein neues Medikament entwickelt werden.[46]

Einzelnachweise

  1. P. Lombardo, I. Boehm, K. Nairz: RadioComics – Santa Claus and the future of radiology. In: European Journal of Radiology. 122. Jahrgang, Nr. 1, 2020, S. 108771, doi:10.1016/j.ejrad.2019.108771, PMID 31835078.
  2. Alanna Vial, David Stirling, Matthew Field, Montserrat Ros, Christian Ritz: The role of deep learning and radiomic feature extraction in cancer-specific predictive modelling: a review. In: Translational Cancer Research. Band 7, Nr. 3, 6. Juli 2018, ISSN 2219-6803, S. 803–816, doi:10.21037/21823 (amegroups.com [abgerufen am 9. Dezember 2018]).
  3. P Tschandl, N Codella, BN Akay, G Argenziano, RP Braun, H Cabo, D Gutman, A Halpern, B Helba, R Hofmann-Wellenhof, A Lallas, J Lapins, C Longo, J Malvehy, MA Marchetti, A Marghoob, S Menzies, A Oakley, J Paoli, S Puig, C Rinner, C Rosendahl, A Scope, C Sinz, HP Soyer, L Thomas, I Zalaudek, H Kittler: Comparison of the accuracy of human readers versus machine-learning algorithms for pigmented skin lesion classification: an open, web-based, international, diagnostic study. In: The Lancet. Oncology. 20. Jahrgang, Nr. 7, Juli 2019, S. 938–947, doi:10.1016/S1470-2045(19)30333-X, PMID 31201137.
  4. P Tschandl, C Rosendahl, H Kittler: The HAM10000 dataset, a large collection of multi-source dermatoscopic images of common pigmented skin lesions. In: Scientific data. 5. Jahrgang, 14. August 2018, S. 180161, doi:10.1038/sdata.2018.161, PMID 30106392.
  5. HA Haenssle, C Fink, R Schneiderbauer, F Toberer, T Buhl, A Blum, A Kalloo, ABH Hassen, L Thomas, A Enk, L Uhlmann, Groups. Reader study level-I and level-II: Man against machine: diagnostic performance of a deep learning convolutional neural network for dermoscopic melanoma recognition in comparison to 58 dermatologists. In: Annals of oncology : official journal of the European Society for Medical Oncology. 29. Jahrgang, Nr. 8, 1. August 2018, S. 1836–1842, doi:10.1093/annonc/mdy166, PMID 29846502.
  6. P Tschandl, C Rosendahl, BN Akay, G Argenziano, A Blum, RP Braun, H Cabo, JY Gourhant, J Kreusch, A Lallas, J Lapins, A Marghoob, S Menzies, NM Neuber, J Paoli, HS Rabinovitz, C Rinner, A Scope, HP Soyer, C Sinz, L Thomas, I Zalaudek, H Kittler: Expert-Level Diagnosis of Nonpigmented Skin Cancer by Combined Convolutional Neural Networks. In: JAMA dermatology. 155. Jahrgang, Nr. 1, 1. Januar 2019, S. 58–65, doi:10.1001/jamadermatol.2018.4378, PMID 30484822.
  7. MA Marchetti, NCF Codella, SW Dusza, DA Gutman, B Helba, A Kalloo, N Mishra, C Carrera, ME Celebi, JL DeFazio, N Jaimes, AA Marghoob, E Quigley, A Scope, O Yélamos, AC Halpern, Collaboration. International Skin Imaging: Results of the 2016 International Skin Imaging Collaboration International Symposium on Biomedical Imaging challenge: Comparison of the accuracy of computer algorithms to dermatologists for the diagnosis of melanoma from dermoscopic images. In: Journal of the American Academy of Dermatology. 78. Jahrgang, Nr. 2, Februar 2018, S. 270–277.e1, doi:10.1016/j.jaad.2017.08.016, PMID 28969863.
  8. HA Haenssle, C Fink, F Toberer, J Winkler, W Stolz, T Deinlein, R Hofmann-Wellenhof, A Lallas, S Emmert, T Buhl, M Zutt, A Blum, MS Abassi, L Thomas, I Tromme, P Tschandl, A Enk, A Rosenberger, Groups. Reader Study Level I and Level II: Man against machine reloaded: performance of a market-approved convolutional neural network in classifying a broad spectrum of skin lesions in comparison with 96 dermatologists working under less artificial conditions. In: Annals of oncology : official journal of the European Society for Medical Oncology. 31. Jahrgang, Nr. 1, Januar 2020, S. 137–143, doi:10.1016/j.annonc.2019.10.013, PMID 31912788.
  9. P Tschandl, H Kittler, G Argenziano: A pretrained neural network shows similar diagnostic accuracy to medical students in categorizing dermatoscopic images after comparable training conditions. In: The British journal of dermatology. 177. Jahrgang, Nr. 3, September 2017, S. 867–869, doi:10.1111/bjd.15695, PMID 28569993.
  10. SS Han, MS Kim, W Lim, GH Park, I Park, SE Chang: Classification of the Clinical Images for Benign and Malignant Cutaneous Tumors Using a Deep Learning Algorithm. In: The Journal of investigative dermatology. 138. Jahrgang, Nr. 7, Juli 2018, S. 1529–1538, doi:10.1016/j.jid.2018.01.028, PMID 29428356.
  11. C Yu, S Yang, W Kim, J Jung, KY Chung, SW Lee, B Oh: Acral melanoma detection using a convolutional neural network for dermoscopy images. In: PloS one. 13. Jahrgang, Nr. 3, 2018, S. e0193321, doi:10.1371/journal.pone.0193321, PMID 29513718.
  12. A Esteva, B Kuprel, RA Novoa, J Ko, SM Swetter, HM Blau, S Thrun: Dermatologist-level classification of skin cancer with deep neural networks. In: Nature. 542. Jahrgang, Nr. 7639, 2. Februar 2017, S. 115–118, doi:10.1038/nature21056, PMID 28117445.
  13. S Polesie, M Gillstedt, H Kittler, A Lallas, P Tschandl, I Zalaudek, J Paoli: Attitudes towards artificial intelligence within dermatology: an international online survey. In: The British journal of dermatology. 17. Januar 2020, doi:10.1111/bjd.18875, PMID 31953854.
  14. SS Han, I Park, W Lim, MS Kim, GH Park, JB Chae, CH Huh, SE Chang, JI Na: Augment Intelligence Dermatology : Deep Neural Networks Empower Medical Professionals in Diagnosing Skin Cancer and Predicting Treatment Options for 134 Skin Disorders. In: The Journal of investigative dermatology. 5. Februar 2020, doi:10.1016/j.jid.2020.01.019, PMID 32243882.
  15. A Lallas, G Argenziano: Artificial intelligence and melanoma diagnosis: ignoring human nature may lead to false predictions. In: Dermatology practical & conceptual. 8. Jahrgang, Nr. 4, Oktober 2018, S. 249–251, doi:10.5826/dpc.0804a01, PMID 30479851.
  16. C Navarrete-Dechent, SW Dusza, K Liopyris, AA Marghoob, AC Halpern, MA Marchetti: Automated Dermatological Diagnosis: Hype or Reality? In: The Journal of investigative dermatology. 138. Jahrgang, Nr. 10, Oktober 2018, S. 2277–2279, doi:10.1016/j.jid.2018.04.040, PMID 29864435.
  17. Ein Berliner Startup erkennt Hautkrebs besser als ein Arzt gruenderszene.de vom 13. Februar 2018
  18. DermEngine AI
  19. FotoFinder MoleAnalyzer
  20. A Ngoo, A Finnane, E McMeniman, JM Tan, M Janda, HP Soyer: Efficacy of smartphone applications in high-risk pigmented lesions. In: The Australasian journal of dermatology. 59. Jahrgang, Nr. 3, August 2018, S. e175-e182, doi:10.1111/ajd.12599, PMID 28240347.
  21. NDR: Wie nützlich sind "Hautkrebs-Apps"? (ndr.de [abgerufen am 1. Dezember 2018]).
  22. Arzt versus Computer: Wer erkennt Brustkrebsmetastasen am besten? aerzteblatt.de vom 13. Dezember 2017
  23. KI erkennt Brustkrebs: Selbstlernendes System erkennt Tumore in Mammografie-Aufnahmen so gut wie ein Radiologe. 16. März 2018, abgerufen am 2. Juli 2019.
  24. DARMKREBSVORSTUFEN MIT KÜNSTLICHER INTELLIGENZ ERKENNEN internisten-im-netz.de vom 8. Oktober 2018
  25. Yiming Ding, Jae Ho Sohn, Michael G. Kawczynski, Hari Trivedi, Roy Harnish: A Deep Learning Model to Predict a Diagnosis of Alzheimer Disease by Using 18F-FDG PET of the Brain. In: Radiology. 6. November 2018, ISSN 0033-8419, S. 180958, doi:10.1148/radiol.2018180958 (rsna.org [abgerufen am 1. Dezember 2018]).
  26. Künstliche Intelligenz erkennt Alzheimer früher als Ärzte. In: BR24. (br.de [abgerufen am 1. Dezember 2018]).
  27. heise online: Künstliche Intelligenz diagnostiziert COVID-19 anhand von CT. Abgerufen am 16. April 2020.
  28. Ruamviboonsuk, P., Krause, J., Chotcomwongse, P. et al. Deep learning versus human graders for classifying diabetic retinopathy severity in a nationwide screening program. npj Digit. Med. 2, 25 (2019). https://doi.org/10.1038/s41746-019-0099-8
  29. AI Index 2019. Abgerufen am 14. Januar 2021 (englisch).
  30. FAZ:Diagnosen von Watson. 10. Juni 2017, abgerufen am 2. Juli 2019.
  31. KI rettet Patientin das Leben, weil sie die Fehldiagnose der Ärzte korrigiert vice.com vom 10. August 2016
  32. KI gegen Krebs: Kritik an IBM Watson wegen "gefährlichen Empfehlungen" - derStandard.at. Abgerufen am 9. Dezember 2018.
  33. Künstliche Intelligenz soll Todeszeitpunkt von Patienten vorhersagen. Abgerufen am 2. Juli 2019.
  34. Studie: Apple Watch erkennt Diabetes mit 85 Prozent Genauigkeit. 7. Februar 2018, abgerufen am 2. Juli 2019.
  35. KI kann Psychosen bei Jugendlichen frühzeitig erkennen futurezone.de vom 23. Januar 2018
  36. Cheryl M. Corcoran, Facundo Carrillo, Diego Fernández-Slezak, Gillinder Bedi, Casimir Klim: Prediction of psychosis across protocols and risk cohorts using automated language analysis. In: World Psychiatry. Band 17, Nr. 1, 19. Januar 2018, ISSN 1723-8617, S. 67–75, doi:10.1002/wps.20491, PMID 29352548 (wiley.com [abgerufen am 17. September 2018]).
  37. Künstliche Intelligenz soll Depressionen an Sprechweise erkennen. 6. September 2018, abgerufen am 2. Juli 2019.
  38. Diese App sollte den Arztbesuch überflüssig machen – doch die Nutzer bewirkten das Gegenteil. 17. Dezember 2017, abgerufen am 2. Juli 2019.
  39. Massive Datenschutzmängel in der Gesundheits-App Ada. 10. Oktober 2019, abgerufen am 10. Oktober 2019.
  40. „Wir geben Millionen Menschen medizinischen Rat“. 10. Oktober 2018, abgerufen am 2. Juli 2019.
  41. Nachgefragt zum Kongress eHealth Europe in Freiburg. Abgerufen am 2. Juli 2019.
  42. UJ Muehlematter, P Daniore, K N Vokinger Approval of artificial intelligence and machine learning-based medical devices in the USA and Europe (2015–20): a comparative analysis Lancet Digital Health (2021) doi:10.1016/S2589-7500(20)30292-2 (open access)
  43. Michael Moorstedt: Die blinden Flecken der künstlichen Intelligenzen. In: sueddeutsche.de. 11. August 2019, ISSN 0174-4917 (sueddeutsche.de [abgerufen am 13. August 2019]).
  44. Kevin Williams, Elizabeth Bilsland, Andrew Sparkes, Wayne Aubrey, Michael Young: Cheaper faster drug development validated by the repositioning of drugs against neglected tropical diseases. In: Journal of The Royal Society Interface. Band 12, Nr. 104, 6. März 2015, ISSN 1742-5689, S. 20141289, doi:10.1098/rsif.2014.1289, PMID 25652463 (royalsocietypublishing.org [abgerufen am 1. Dezember 2018]).
  45. Artificially intelligent robot scientist 'Eve' could boost search for new drugs. (phys.org [abgerufen am 1. Dezember 2018]).
  46. AI robot finds ingredient in toothpaste may help fight malaria. In: The Independent. (independent.co.uk [abgerufen am 1. Dezember 2018]).