Zwischen Fortschritt und Kontrolle der KI
Der Physiker und Forscher im Bereich Künstliche Intelligenz, Max Tegmark, drückt es deutlich aus: „Wir haben das Feuer entdeckt, jede Menge Fehler gemacht und dann den Feuerlöscher erfunden. Doch dieses Prinzip des Versuchs und Irrtums ist nicht geeignet für die Nutzung von Künstlicher Intelligenz, die weit mächtiger ist als Feuer. Bei Technologien von solcher Tragweite, wie etwa Nuklearwaffen in Verbindung mit einer übermenschlichen KI, dürfen wir nicht darauf hoffen, aus Fehlern zu lernen – wir müssen von Anfang an die richtigen Maßnahmen ergreifen.”
Das neu beschlossene KI-Gesetz des EU-Parlaments zielt darauf ab, die Anwendung von Künstlicher Intelligenz in der Europäischen Union sicherer zu gestalten. Es soll sicherstellen, dass KI-Systeme transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. Ein zentraler Punkt besteht darin, dass diese Systeme von Menschen überwacht werden und nicht ausschließlich von anderen Technologien.
Ist dieses Gesetz der „Feuerlöscher“ für KI, wie von Tegmark gefordert? Sicherlich nicht, doch es kann einen ersten Schritt darstellen. Es bleibt jedoch die Frage, wie wir die KI kontrollieren können. Wir selbst integrieren KI-Komponenten in unser Softwaresystem (DISKOVER) für besonders komplexe Aufgaben wie die Fertigungssteuerung. Dadurch erfahren wir aus erster Hand, wie schwierig es ist, Transparenz bezüglich der Ergebnisse einer KI-gestützten Software zu gewährleisten. Dies wird noch komplizierter, wenn externe Systeme wie z.B. ChatGPT oder Gemini eingesetzt werden.
Ein Beispiel: Wir experimentieren derzeit mit KI-Systemen, die unsere Meetings protokollieren. Die Software nimmt wie ein weiterer Teilnehmer an unseren Online-Meetings teil und hört zu. Anschließend erstellt sie das Protokoll, das jederzeit in der Cloud abrufbar ist. Die Ergebnisse sind tatsächlich vielversprechend. Man kann sogar wählen, ob man ein ausführliches Protokoll oder nur die wichtigsten Punkte haben möchte, was eine erhebliche Arbeitserleichterung darstellt.
Allerdings trifft die KI nun Entscheidungen darüber, welche Punkte aus dem Meeting als wichtig eingestuft werden. Ob sie dabei neutral agiert, lässt sich nicht eindeutig feststellen. Es besteht die Möglichkeit, dass die KI die Ergebnisse beeinflusst oder sogar diskriminierend ist. Wer erinnert sich schon zwei Wochen später an alle Inhalte eines Meetings? Die KI könnte somit unbemerkt Einfluss auf unsere Entscheidungen nehmen.
Sollten in solchen Fällen bereits die Regelungen des neuen EU-Gesetzes zur Anwendung von KI greifen? Können externe oder interne Akteure uns zur Rechenschaft ziehen, wenn wir die Software weiter nutzen? Sind wir verpflichtet, die KI auszuschalten? Das wäre kontraproduktiv und würde den Fortschritt in der KI-Anwendung behindern. Wir würden uns zu früh gegen die Software entscheiden, ohne die Möglichkeiten ausgereizt und ihre Schwächen behoben zu haben.
Andere Länder haben noch keine Reglementierungen bezüglich der KI-Anwendung und können weiter frei agieren. Europa wird so weiter den Rückstand gegenüber den USA und China vergrößern!
Es grüßt Sie,
Bernd Reineke