Auf Visite mit Dr. KI
Präzisere Diagnosen, individualisierte Therapien, bessere Betreuung von Patienten – Künstliche Intelligenz (KI) bietet große Chancen, um die medizinische Versorgung voranzubringen. Gleichzeitig wirft der rasante Fortschritt auf dem Gebiet ethische Fragen auf. Was KI kann und welche neuralgischen Punkte es gibt, beleuchten Prof. Dr. Arno Elmer und Prof. Dr. Georg Marckmann.
Das Gesundheitswesen steht vor erheblichen Herausforderungen. Durch die Alterung der Bevölkerung steigt die Zahl älterer Menschen, die an einer oder häufig mehreren chronischen Erkrankungen leiden. Dem damit einhergehenden steigenden Bedarf an Behandlung, Pflege und Betreuung stehen mittelfristig durch den steigenden Altenquotient in der gesetzlichen Krankenversicherung weniger Finanzmittel zur Verfügung. Dadurch dürfte sich der Kostendruck im Gesundheitswesen weiter erhöhen. Gleichzeitig gibt es an vielen Stellen personelle Engpässe, um die Patienten angemessen zu versorgen. Insbesondere fehlt ausreichend Zeit für das Patientengespräch als wesentliche Voraussetzung für eine patientenzentrierte Versorgung. Zudem wird die Medizin durch den Wissenszuwachs immer komplexer, und durch die fortschreitende Digitalisierung stehen immer mehr Patientendaten für eine systematische Auswertung zur Verfügung.
Um den künftigen Herausforderungen gewachsen zu sein, macht auch im Gesundheitswesen das Zauberwort „Künstliche Intelligenz (KI) die Runde. Der Begriff geht zurück auf das Jahr 1956 und umfasste zunächst vor allem EDV-Programme, die zum Beispiel in der Lage waren, Schachzüge zu berechnen und mögliche Varianten und Szenarien darzustellen.
Heute kann KI wesentlich mehr. Maschinen erbringen menschenähnliche Intelligenzleistungen wie Lernen, Urteilen und Problemlösen. Ein Teilgebiet von KI ist die Technologie des maschinellen Lernens (Machine Learning; siehe „Kleines KI-Lexikon“). Sie lehrt Computer, aus Daten und Erfahrung zu lernen und Aufgaben immer besser auszuführen. Ausgefeilte Algorithmen können in unstrukturierten Datensätzen wie Bildern, Texten oder gesprochener Sprache Muster erkennen und anschließend Entscheidungen selbstständig treffen. Als vielversprechendste Methode des Machine Learning wird aktuell Deep Learning gesehen, das neuronale Netze mit mehreren Ebenen und einem großen Datenvolumen nutzt. Das maschinelle Lernen geschieht entweder durch Training anhand eines Datensatzes mit bereits bekannten Outputs, oder Algorithmen müssen selbst Muster in Daten erkennen.
Für Laien eine Technik mit sieben Siegeln.
Auf viele Menschen wirkt das zunächst bedrohlich. Dies liegt nicht zuletzt daran, dass KI eine höchst komplexe, für Laien kaum durchschaubare Technologie ist. Die Durchdringung der Gesellschaft und der Wirtschaft mit digitalen Medien und Instrumenten ist ja auch noch gar nicht so alt. Seit gerade mal 20 Jahren steht das Internet allen offen, und erst vor zehn Jahren kamen die ersten Smartphones auf den Markt, die die Kommunikation veränderten. Heute tauschen sich weltweit Milliarden Menschen über soziale Plattformen wie selbstverständlich aus, ohne sich näher mit den zugrunde liegenden Technologien zu beschäftigen. Der unmittelbare Nutzen und die einfache Bedienbarkeit sind entscheidende Gründe dafür.
- Antes, G.: Ist das Zeitalter der Kausalität vorbei? In: Zeitschrift für Evidenz, Fortbildung und Qualität im Gesundheitswesen (ZEFQ) 2016; 112S: Seite 16–22.
- Deutscher Ethikrat: Big Data und Gesundheit – Datensouveränität als informationelle Freiheitsgestaltung. Stellungnahme. Berlin: Deutscher Ethikrat vom 30.11.2017.
- Marckmann, G.: Ethische Aspekte von eHealth. In: Fischer F., Krämer, A. (Hrsg.): eHealth in Deutschland. Anforderungen und Potenziale innovativer Versorgungsstrukturen. Springer-Verlag, Berlin, Heidelberg 2016, Seite 83–99.
- McDougall, R. J.: Computer knows best? The need for value-flexibility in medical AI. In: Journal of Medical Ethics 2019; 45 (3): 156–160.
- Topol E. J.: Deep medicine. How artifical intelligence can make healthcare human again. Basic Books, New York 2019.
- Topol, E. J.: High-performance medicine: the convergence of human and artificial intelligence. In: Nature Medicine 2019; 25 (1): 44–56.
In dieser Ausgabe:
- Assistenz bei der Bildanalyse: An der Universitätsmedizin Essen setzen Ärzte lernende KI-Systeme bei der Röntgendiagnostik ein – ein Beispiel aus der Praxis.
- „Der Mensch muss im Mittelpunkt stehen“: Christiane Woopen, die Vorsitzende des Europäischen Ethikrates, im G+G-Interview über Chancen und Risiken von KI.
Was mithilfe von KI möglich ist, kam erstmals vor zehn Jahren ins öffentliche Bewusstsein, als der IBM-Computer Watson in der US-amerikanischen Gameshow Jeopardy gegen seine menschlichen Konkurrenten gewann. Seitdem hat der Einsatz von KI im Kontext der zunehmenden Digitalisierung und von Big Data branchenübergreifend zugenommen. Was vor einigen Jahren noch Science Fiction war, beispielsweise selbstfahrende Autos, ist längst keine Zukunftsmusik mehr – auch wenn die Technik noch nicht ganz ausgereift ist.
Im Bereich der Medizin sehen Forscher KI als einen wichtigen Schlüssel zu einem längeren und gesünderen Leben. Die Einsatzmöglichkeiten sind vielfältig wie das Gesundheitswesen selbst: von Diagnoseverfahren über Bildungsangebote, Wissensdatenbanken, Datenverschlüsselung, Patientenberatung, Forschung und Entwicklung bis hin zu Public Health.
Mehr Zeit fürs Zwischenmenschliche.
KI kann den Arzt bei der Auswertung von Bilddaten entlasten und bietet so Zeitersparnis bei gleichzeitig hoher Treffsicherheit in Diagnose und Therapie. Der Vorteil liegt auf der Hand: Während die Maschine sich um Routineaufgaben kümmert, bleibt Zeit für Zwischenmenschliches, für das Gespräch zwischen Arzt und Patient – Zeit, die heute in der Gesundheitsversorgung oftmals fehlt.
Die Bundesregierung verabschiedete im November 2018 eine KI-Strategie. Das Ziel: Deutschland unter dem Label „AI made in Germany“ (AI: Artificial Intelligence) weltweit nach vorne zu bringen. Die KI-Strategie ist Teil der Digitalisierungsstrategie der Bundesregierung. Es gibt verschiedene Gremien, die die Politik zu KI beraten. Dazu gehören die Enquetekommission „Künstliche Intelligenz“, die Datenethikkommission und der Digitalrat.
- Enquetekommission „Künstliche Intelligenz“: Die Enquetekommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ soll die Chancen und die zukünftigen Herausforderungen der KI für Gesellschaft, Staat und Wirtschaft erörtern. Die Kommission setzt sich zu gleichen Teilen aus Bundestagsabgeordneten und externen Sachverständigen zusammen.
Weitere Informationen zur Enquete-Kommission „Künstliche Intelligenz“
- Datenethikkommission: Die Anfang September 2018 eingesetzte unabhängige Datenethikkommission soll ethische Leitlinien für den Umgang mit Algorithmen, KI und digitalen Innovationen vorschlagen und Handlungsempfehlungen geben. Organisatorisch wird sie von den Bundesministerien des Innern sowie der Justiz betreut. Ihr gehören 16 Experten aus Medizin, Recht, Informatik, Statistik, Volks- und Betriebswirtschaft, Theologie, Ethik und Journalismus an. Die Datenethikkommission wird ihren Abschlussbericht Ende 2019 vorlegen.
Weitere Informationen zur Datenethikkommission
- Digitalrat: Der zehnköpfige Digitalrat besteht aus unabhängigen Experten aus den Bereichen Wissenschaft, Forschung und Wirtschaft. Er soll die Bundesregierung praxisnah beraten und antreiben. Dabei geht es unter anderem um eine Strategie für künstliche Intelligenz.
Weitere Informationen zur Digitalisierung
Auch eröffnet KI Chancen für eine personalisierte Medizin. Da beispielsweise keine Krebserkrankung der anderen gleicht, kann eine bestimmte Therapie dem einen Patienten helfen, dem anderen jedoch nicht. KI ist in der Lage, die feinsten Unterschiede etwa auf MRTs zu erkennen und so Handlungsempfehlungen für eine individuelle Therapie anzubieten.
Zudem stellt KI eine echte Alternative zu Dr. Google dar. So können Chatbots – das sind Computerprogramme, die sich schriftlich mit Patienten unterhalten und deren Fragen beantworten – erste Ansprechpartner bei unklaren Symptomen sein. Auch kann KI Menschen, die eine Demenz im Frühstadium haben, mit Sprachsystemen helfen, erste Gedächtnislücken zu überbrücken. Somit ist KI keine Bedrohung, sondern ein Hilfsmittel für eine bessere und patientenzentrierte Versorgung. Es geht also nicht um ein „Entweder-Oder“, also Mensch und Arzt gegen KI und Maschine, sondern um deren intelligenten Einsatz.
Natürlich gibt es auch Rückschläge beim Einsatz von KI. Berichten zufolge empfahl der Supercomputer Watson bei Tumorerkrankungen falsche Behandlungen. Wären sie eingesetzt worden, hätte das den Tod von Patienten bedeutet. Gründe hierfür waren unter anderem die mangelhafte Qualität sowie die unzureichende Menge der Daten, die in das Programm eingespeist worden waren. Die Entwickler verteidigen das Programm und glauben an seine Weiterentwicklung.
Zwischen Ethik und Effizienz.
Solche Rückschläge bringen KI in Misskredit und werfen zugleich ethische Fragen auf. Führen KI-Anwendungen zu einer effektiveren und effizienteren Diagnostik und Therapie und setzen Ressourcen für Gespräche und den persönlichen Kontakt zwischen Arzt und Patient frei, ist ihr Einsatz ethisch geboten. Damit sind aber weitere Fragen verbunden: Welche möglichen Risiken und Schadenspotenziale stehen den möglichen Vorteilen für die Patientenversorgung gegenüber, beispielsweise durch eine unvollständige, verzerrte oder fehlerhafte Datengrundlage oder durch Fehler in der Funktion oder bei der Anwendung der KI-Systeme? Wie wirken sich die Systeme auf die Patientenautonomie aus? Und wer trägt die Verantwortung, wenn etwas bei ihrem Einsatz schief geht?
Medizinischer Sachverstand bei der Entwicklung.
Der Einsatz von KI-Systemen in der Medizin ist dann ethisch vertretbar, wenn die Systeme nachweislich die Patientenversorgung verbessern und dabei vertretbare Schadenspotenziale aufweisen. Um einen Nutzen für die Patientenversorgung bieten zu können, müssen die Systeme einen nachgewiesenen Bedarf an Entscheidungsunterstützung decken. Nur wenn das System einer klar definierten Zielsetzung dient ist sichergestellt, dass die Technik nicht um ihrer selbst willen, sondern als „dienende“ Technologie eingesetzt wird.
In Abgrenzung zu China und den USA soll künstliche Intelligenz in Europa nach dem Willen der EU-Kommission nach strengeren ethischen Regeln entwickelt werden. Entsprechende Empfehlungen legte die Brüsseler Behörde Anfang April vor. Bis 2020 sollen Unternehmen, Forschungsinstitute und Behörden die Vorgaben testen und ihre Erfahrungen teilen. Konkrete Gesetzesvorschläge sollen dann gegebenenfalls anschließend folgen.
Künstliche Intelligenz solle zur Stärkung der Grundrechte beitragen und dürfe nicht die Unabhängigkeit von Menschen einschränken. Die Menschen sollten zudem volle Kontrolle über ihre Daten haben. Diese dürften nicht dazu genutzt werden, ihnen zu schaden oder sie zu diskriminieren. Auch für eigenständige Maschinenentscheidungen sollten zudem klare Verantwortlichkeiten und Rechenschaftspflichten geschaffen werden.
Der Vorstoß ist Teil der KI-Strategie der EU-Kommission. Demnach sollen bis Ende 2020 mindestens 20 Milliarden Euro an privaten und öffentlichen Investitionen in dem Bereich zusammenkommen. Die Brüsseler Behörde will zusätzlich 1,5 Milliarden Euro an öffentlichen Geldern bereitstellen. Auch will sie die ethische KI-Entwicklung auf globaler Ebene vorantreiben und dabei vor allem mit ähnlich gesinnten Partnern wie Japan und Kanada zusammenarbeiten.
„Die ethische Dimension von künstlicher Intelligenz ist kein Luxus oder Addon“, sagte der zuständige EU-Kommissar Andrus Ansip. „Nur mit Vertrauen kann unsere Gesellschaft vollständig von Technologien profitieren. Ethische KI ist ein Win-win-Vorschlag, der zu einem Wettbewerbsvorteil für Europa werden kann.“
Weitere Informationen zur EU-Kommission
G+G-Redaktion
Deshalb ist vorab festzulegen, welche Aufgaben KI in einer evidenzbasierten, patientenzentrierten Versorgung erfüllen kann und soll. Dabei ist das Leistungsspektrum der Gesundheitsversorgung zu berücksichtigen. Allgemein wird heute eine Unterstützung und nicht ein Ersetzen ärztlicher Entscheidungen als angemessenes Ziel von KI-Anwendungen angesehen. Deshalb ist es sinnvoll, Ärzte in die Entwicklung von KI-Systemen einzubeziehen und das Feld nicht allein Informatikern zu überlassen.
Schutz vor unautorisierten Zugriffen.
Zudem ist bei selbstlernenden Maschinen zu berücksichtigen, dass die Datengrundlage beim Training der Systeme in der Regel nicht auf randomisierten, kontrollierten Studien beruht, sondern auf Routinedaten aus der medizinischen Versorgung. Diese unterliegen vielfältigen Einflüssen wie Vergütungsmodalitäten, Verfügbarkeit von Ressourcen und unterschiedlichen Praxisstilen. Bei der Auswertung lassen sich zudem nur Korrelationen und keine Kausalitäten ermitteln, die aufgrund der riesigen Datenmengen mit einer hohen Rate falsch positiver Ergebnisse verbunden ist. Dies ist beim Einsatz von KI-Systemen zu berücksichtigen. Für die nicht vollständig zu eliminierenden Fehlerpotenziale und Risiken durch unautorisierte Zugriffe („Hacker“) sind entsprechende technische und prozedurale Vorkehrungen zu treffen. Deshalb ist jedes einzelne System vor seinem Einsatz daraufhin zu prüfen.
Den Menschen nicht auf den Körper reduzieren.
Wie bereits erwähnt, gefährdet KI nicht die Arzt-Patient-Beziehung. Im Gegenteil: KI in Apps kann die Patientenautonomie stärken und damit eine gemeinsame Entscheidung (shared decision making) unterstützen. Algorithmen als Helfer bei der Diagnostik sind eher unproblematisch. Denn sie nehmen nicht die Entscheidung über eine Behandlung vorweg, sondern verbessern lediglich die Entscheidungsgrundlage für Arzt und Patient. Allerdings ist dabei zu berücksichtigen, dass die Systeme häufig vor allem molekularbiologische beziehungsweise physiologische Parameter verarbeiten. Deshalb ist bereits bei der Diagnostik darauf zu achten, den Patienten als Ganzes zu sehen und ihn nicht auf seinen Körper zu reduzieren.
Nutzen und Schaden sind abzuwägen.
Bei Behandlungs-Algorithmen ist zudem zu berücksichtigen, dass jede therapeutische Entscheidung unvermeidbar Werturteile erfordert, zum Beispiel hinsichtlich des Behandlungsziels. Auch sind Nutzen und Schadenspotenziale von Therapien abzuwägen. Sind die im Algorithmus implementierten Werturteile nicht transparent, besteht die Gefahr, dass individuelle Patientenpräferenzen nicht genügend berücksichtigt werden. Dann aber droht eine paternalistische Medizin. Diese Gefahr ist insofern besonders beachtenswert, da KI-Systeme Objektivität und fachliche Präzision suggerieren. Um individuelle Patientenpräferenzen zu berücksichtigen, müssen Behandlungsalgorithmen im Design und bei der Anwendung flexibel sein.
KI soll keinen Arzt ersetzen, sondern helfen, Patienten besser zu versorgen.
Im Idealfall weist das System den Arzt auf die jeweils erforderlichen Werturteile hin und fordert ihn auf, den Patienten in seine Entscheidungsfindung einzubeziehen. Dadurch ließe sich eine patientenzentrierte Medizin durch den Einsatz eines KI-Systems fördern.
Patient muss Herr seiner Daten sein.
KI setzt die Verarbeitung großer Datenmengen sowohl bei der Entwicklung als auch bei der Anwendung voraus. Da gesundheitsbezogene Daten aufgrund möglicher Diskriminierung beim Zugang zu Arbeitsstellen oder Versicherungen besonders sensibel sind, werfen Big-Data-Anwendungen in der Medizin Fragen zum Schutz der Privatsphäre auf.
Auf der einen Seite ist er eine wesentliche Voraussetzung für die Integrität eines Menschen und seiner sozialen Beziehungen. Auf der anderen Seite profitieren die Betroffenen davon, wenn ihre gesundheitsbezogenen Daten für die eigene Behandlung besser verfügbar sind oder wenn sie im Rahmen der Forschung dazu beitragen, Diagnostik und Therapie zu verbessern.
Es besteht deshalb weitgehende Einigkeit darüber, dass gesundheitsrelevante Daten unter kontrollierten Bedingungen erfasst, gespeichert, weitergegeben und ausgewertet werden sollten. Dabei kommt der Einwilligung des Betroffenen als Ausdruck seiner informationellen Selbstbestimmung traditionell eine besondere Bedeutung zu. Hinzu kommen technische und prozedurale Maßnahmen zum Schutz der Daten gegen unautorisierten Zugriff und systembedingten Verlust. Die Datenschutz-Grundverordnung DSGVO gibt seit 2018 europaweit einheitliche Regelungen zum Schutz personenbezogener Daten vor.
Privatsphäre oder Datenspende?
Bei der Speicherung von Daten und Biomaterialen lassen sich allerdings künftige Entwicklungen in Forschung und Klinik kaum vorhersehen. Deshalb werden zunehmend flexiblere Möglichkeiten der Einwilligung in die Datenspeicherung und -nutzung diskutiert. Noch weitergehender könnte man fragen, ob es nicht eine solidarische Pflicht zu einer anonymen Datenspende gibt, da nicht nur die Allgemeinheit, sondern auch der Einzelne selbst von der Verfügbarkeit großer Datenmengen profitieren kann.
Der Deutsche Ethikrat hat mit der „Datensouveränität“ ein Konzept verantwortlicher informationeller Freiheitsgestaltung vorgeschlagen, bei dem der Einzelne selbstbestimmt und verantwortlich („souverän“) mit seinen personenbezogenen Daten umgeht (siehe Kasten „Lesetipps“). Dies soll eine Balance zwischen dem Schutz der Persönlichkeitsrechte des Einzelnen und dem potenziellen Nutzen von Big Data für die allgemeine Versorgung von Patienten und Entwicklung neuer diagnostischer und therapeutischer Ansätze ermöglichen.
Qualitätsstandards für lernende Maschinen.
Bei KI-Anwendungen spielt aber nicht nur der Datenschutz eine Rolle. Auch stellen sich Fragen zur Haftung. Üblicherweise trägt der Arzt die letzte Verantwortung für die Entscheidung, auch wenn er dabei durch technische Geräte unterstützt wird. Die Übernahme der Verantwortung setzt allerdings voraus, dass der behandelnde Arzt die technischen Grundlagen der Entscheidungsfindung nachvollziehen und in der Anwendung noch einmal selbst kritisch überprüfen kann.
Kommen selbstlernende Systeme zum Einsatz, dürfte es für den Arzt schwierig sein, das berechnete Systemergebnis noch einmal selbst zu prüfen. Denn der Lernprozess des Systems ist für ihn intransparent, quasi eine Black Box. Deshalb sind Qualitätsstandards bei der Entwicklung der Systeme unverzichtbar. Die zu Recht geforderte Transparenz von Algorithmen dürfte bei selbstlernenden Systemen allerdings nur begrenzt herzustellen sein. Möglicherweise ist es dann wichtiger, dem Arzt als Anwender deren Interpretation zu ermöglichen, das heißt ein Verständnis zu entwickeln, wie das System auf Basis seiner Komponenten und Eigenschaften zu den Ergebnissen kommt (interpretable machine learning).
Jedes einzelne System ethisch bewerten.
Jede einzelne KI-Anwendung in der Medizin wird Stärken und Schwächen haben und damit auch unterschiedliche ethische Fragen aufwerfen. Jedes einzelne System ist deshalb für sich hinsichtlich möglicher ethischer Implikationen zu bewerten. Dies sollte nach ethisch explizit begründeten Kriterien und einem klar definierten methodischen Vorgehen erfolgen.
Ziel der Bewertung sollte dabei nicht eine pauschale Befürwortung oder Ablehnung von KI sein, sondern Empfehlungen für eine ethisch vertretbare Entwicklung und Anwendung. Damit kann die ethische Begleitforschung dazu beitragen, dass sich die neuen Möglichkeiten mittels intelligenter, selbstlernender Algorithmen am Leitbild einer patientenzentrierten Medizin orientieren und damit einen wertvollen Beitrag zu einer effektiven, effizienten und gerechten Versorgung leisten.
Kleines KI-Lexikon
- Algorithmus
Rechenvorgang, der nach einem bestimmten Schema abläuft. In der Informatik bilden Algorithmen die Grundlagen der Programmierung, eine Sammlung von Berechnungsschritten, die zur Lösung eines Problems führen.
- Big Data
Große Ansammlung digitaler Daten, die die Basis für eine systematische Auswertung darstellen. Um Big Data strategisch zu verwenden, bedarf es unter anderem der KI mit ihren entsprechenden Algorithmen und Möglichkeiten der Mustererkennung. Mit Big Data geht der Begriff Data Mining einher.
- Chatbots
Sie bieten Ärzten und Patienten die Möglichkeit, per Texteingabe mit einer Künstlichen Intelligenz zu kommunizieren. KI-Chatbots werden meist in Form einer App heruntergeladen und sind dafür da, die eingegebenen Symptome der Nutzer einzuschätzen. Je nach Kombination der gesundheitlichen Beschwerden zeigen solche Apps mögliche Diagnosen an und stellen dar, für wie wahrscheinlich das System jede einzelne Diagnosemöglichkeit hält. Die Algorithmen verarbeiten die Schriftsprache und schlagen auf Basis der gemachten Eingaben passende Informationen in einer Datenbank nach. Das Ergebnis, zu dem die KI kommt, kann durch maschinelles Lernen weiterentwickelt werden.
- Data Mining
Verarbeitung sehr großer Datensätze (Big Data), die nach herkömmlichen Methoden gar nicht oder nicht vollständig analysiert werden können. Dabei werden insbesondere einzelne Datenteile so in Zusammenhang gebracht, dass neue Informationen entstehen.
- Künstliche Intelligenz
Oberbegriff für Anwendungen, bei denen Maschinen menschenähnliche Intelligenzleistungen erbringen. Darunter fallen das maschinelle Lernen oder Machine Learning, das Verarbeiten natürlicher Sprache (NLP) und Deep Learning. Die Grundidee besteht darin, durch Maschinen eine Annäherung an wichtige Funktionen des menschlichen Gehirns zu schaffen: Lernen, Urteilen und Problemlösen.
Die Fachwelt unterscheidet zwischen starker und schwacher KI. Von starker KI sprechen Forscher, wenn Programme selbstständig agieren und eine Art Bewusstsein haben. Allerdings ist die Forschung weit davon entfernt, eine solche KI zu entwickeln. Denn bis heute ist wissenschaftlich nicht geklärt, was eigentlich das Bewusstsein genau ist – geschweige denn, wie man es reproduzieren könnte. Bei den heute entwickelten Systemen sprechen die Forscher von schwacher KI – also einer künstlichen Intelligenz, die in einem sehr eingegrenzten Bereich angewendet wird, zum Beispiel bei der Analyse von Patientendaten zwecks besserer Diagnose. Die Systeme sind zwar zur Selbstoptimierung fähig. Sie entscheiden aber nicht selbst, sondern handeln auf menschliche Anweisung – über definierte Entscheidungsabläufe (Algorithmen).- Machine Learning (maschinelles Lernen)
Forschungsgebiet der künstlichen Intelligenz, das es ermöglicht, Lernfähigkeiten eines menschlichen Gehirns nachzubilden und in Kombination mit den immer schneller werdenden Prozessoren neue Ansätze zur Problemlösung zu generieren. Im Rahmen des maschinellen Lernens schaffen es Computer, aus Daten und Erfahrungen zu lernen. Werden die Computer zum Beispiel mit Tausenden MRT-Aufnahmen von Hirn-Scans gefüttert, lernen sie – zunächst menschengesteuert – anhand von immer tiefergehenden Entscheidungsbäumen auffällige Befunde zu erkennen.
Eine Methode des maschinellen Lernens ist das Deep Learning über künstliche neuronale Netze. Diese bestehen aus mehreren Schichten, Verbindungen und Richtungen der Datenausbreitung. Die Schichten dienen dabei als eine Art Filtersystem. Ein digitales Bild etwa wird in mehrere Kacheln zerlegt und diese in die erste Schicht des neuronalen Netzwerks gegeben. Hier werden Neuronen aktiviert, die die Daten an eine zweite Schicht übergeben. Die zweite Schicht und folgende Schichten von Neuronen erfüllen ebenfalls bestimmte Aufgaben, indem sie basierend auf der vorhergehenden Aktion Informationen weitergeben – bis die letzte Schicht die endgültige Aussage erzeugt.- Robotik
Anwendungsbereich von KI. Roboter sind Maschinen, die verschiedene Tätigkeiten automatisiert durchführen können. Sie kommen beispielsweise bei Operationen und im Pflegebereich zum Einsatz. Sie agieren quasi als verlängerter Arm, um das Fachpersonal zu entlasten. Heute wird bereits an Nanorobotern geforscht, die sich durch unsere Blutbahn bewegen und Krankheiten bekämpfen sollen.
Quelle: G+G-Redaktion