Was KI (noch) nicht kann: Einblick in die Grenzen von Künstlicher Intelligenz

Die rasante Entwicklung künstlicher Intelligenz (KI) hat in den letzten Jahren zu beeindruckenden Fortschritten geführt und unsere Gesellschaft in vielerlei Hinsicht verändert. Doch während KI viele Aufgaben erfolgreich bewältigen kann, gibt es auch klare Grenzen und Risiken, die nicht ignoriert werden dürfen. In diesem Artikel werfen wir einen Blick auf die ethischen, technischen und regulatorischen Grenzen von KI und beleuchten die öffentliche Meinung zu diesem Thema.

 

 

1. Ethische, technische und regulatorische Grenzen von KI

Die Einführung von KI in verschiedenen Bereichen wie Medizin, schulischer Bildung, öffentlicher Kommunikation und Verwaltung bietet zweifellos Vorteile, birgt aber auch Herausforderungen und Risiken. Ein von der Ethikrat Deutschland im März 2023 veröffentlichtes Dokument gibt einen Überblick über die philosophischen und technischen Grundlagen der KI und unterteilt sie in schwache und starke KI (MENSCH UND MASCHINE – HERAUSFORDERUNGEN DURCH KÜNSTLICHE INTELLIGEN).

Schwache KI zielt darauf ab, menschliche Fähigkeiten zu simulieren und spezifische Aufgaben zu erfüllen, während starke KI über mentale Zustände, Einsichtsfähigkeit und Emotionen verfügt. In der Medizin können KI-Anwendungen eine wertvolle Rolle bei der Diagnostik und Therapieunterstützung spielen, haben jedoch noch keine emotionale Intelligenz oder kreative Problemlösungsfähigkeiten. Hier besteht die Notwendigkeit einer engen interdisziplinären Zusammenarbeit und qualitativ hochwertiger Trainingsdaten, um Verzerrungen zu minimieren.

Ein ähnliches Dilemma besteht im Bereich der schulischen Bildung, wo KI die Standardisierung und Personalisierung von Lernprozessen ermöglicht, aber auch Bedenken hinsichtlich des möglichen Ersatzes von Lehrkräften und Datenschutzproblemen aufwirft. Die öffentliche Kommunikation und Meinungsbildung werden ebenfalls von KI beeinflusst, da Algorithmen Informationen personalisieren und Falschnachrichten verbreitet werden können. Eine klare Regulierung ist hier erforderlich, um Transparenz und Qualität sicherzustellen.

In der öffentlichen Verwaltung können automatisierte Entscheidungssysteme (ADM-Systeme) helfen, evidenzbasierte Entscheidungen zu treffen, bergen aber das Risiko, dass die persönliche Ebene vernachlässigt und die Autorschaft reduziert wird. Daher sind hohe Transparenz und Schulung von Fachkräften unabdingbar.

Grundsätzlich sollte die Delegation menschlicher Tätigkeiten an KI-Systeme die menschliche Handlungsfähigkeit und Autorschaft erweitern, nicht einschränken. Der KI-Einsatz muss transparent sein, und die Entscheidungsbefugnis sollte letztendlich bei den Menschen bleiben.

AI Act der EU:

Die EU hat den AI Act verabschiedet, der Transparenzpflichten für weniger gefährliche KI-Systeme vorsieht und für Hochrisiko-KI-Systeme eine durchgehende Risikoanalyse, Einhaltung von Qualitätskriterien bei Trainingsdaten, Aufzeichnung von KI-Vorgängen und menschliche Beaufsichtigung fordert.

2. Öffentliche Meinung zu KI

Die öffentliche Meinung zu KI ist vielfältig und reicht von großer Hoffnung bis hin zu erheblichen Bedenken. Tech-Magnat Elon Musk, der selbst eine KI-Firma (xAI: Understand the Universe) mit dem Ziel gegründet hat, die wahre Natur des Universums zu verstehen, hat in der Vergangenheit einen sofortigen Entwicklungsstopp für KI gefordert. Andere Experten wie IT-Experte Prof. Frank Hutter betonen hingegen, dass KI nicht verteufelt werden sollte, da sie beispielsweise in der Krebsforschung große Hoffnung birgt.

Allerdings gibt es auch berechtigte Sorgen. Die Möglichkeit, täuschend echt wirkende Videos zu erstellen, birgt das Risiko der Manipulation der öffentlichen Meinung.

“Nicht nur jeder Diktator, sondern auch jeder Wirrkopf hat plötzlich alle Mittel zur Hand, um jede noch so absurde These mit täuschend echt wirkenden Videos zu “belegen”.” – Prof. Dr. Joachim Weickert

Prof. Dr. Joachim Weickert von der Universität des Saarlandes nennt weitere Risiken, darunter automatisierte Anwendungen ohne menschlichen Eingriff, gesellschaftliche Umbrüche durch Arbeitsplatzverluste, die Verbreitung von Vorurteilen und Rassismus durch KI-Systeme und die potenzielle Totalüberwachung einer Gesellschaft.

Laut einer McKinsey-Studie müssen ca. 12 Millionen Amerikaner aufgrund von KI-Entwicklungen ihren Arbeitsplatz in der Zukunft wechseln. Besonders betroffen wären Arbeitnehmer im unteren Lohnsegment. Doch die Studie zeigt zudem auch auf, dass KI die Arbeit von Fachleuten in MINT-Berufen, Kreativen, Geschäftsleuten und Juristen verbessern könnte, anstatt sie zu ersetzen. (Quelle: Businessinsider)

Alles unter dem Motto:KI wird euch nicht ersetzen – aber Menschen, die KI nutzen, schon!

Was sagt ChatGPT?

Wir haben ChatGPT höchstpersönlich gefragt, was denn die Risiken von KI sind:

“Als KI-System habe ich keine eigenen Meinungen, aber es gibt potenzielle Risiken, die mit der Nutzung von KI verbunden sein könnten. Dazu gehören Fehlinformation und Verbreitung von Unwahrheiten, Datenschutz- und Privatsphärebedenken, Abhängigkeit und soziale Auswirkungen sowie der Missbrauch durch böswillige Akteure.”

Zusammenfassung und Fazit

KI hat zweifellos das Potenzial, unser Leben zu verbessern, aber es gibt auch klare Grenzen und Risiken, die wir nicht außer Acht lassen dürfen. Die ethische, technische und regulatorische Dimension von KI muss sorgfältig abgewogen werden, um sicherzustellen, dass KI-Anwendungen die menschliche Handlungsfähigkeit erweitern und nicht ersetzen. Transparente Regulierungen und verantwortungsvoller Einsatz von KI sind entscheidend, um die Vorteile dieser Technologie zu nutzen und potenzielle negative Auswirkungen zu minimieren. KI ist ein Werkzeug, das uns unterstützen kann, aber es liegt in unserer Verantwortung, kluge Entscheidungen über seine Anwendung zu treffen.

Julian Hardy, Founding Partner bei Hardy & Company
Cookie Consent Banner von Real Cookie Banner