Liebe Leserin, lieber Leser,
wieder einmal das Thema KI, werden Sie vielleicht denken. Als gäbe es nichts Wichtigeres in der Software-Entwicklung.
Zumindest lassen sich IT-Projekte besser vermarkten, wenn eine KI integriert ist –auch wenn man diese oft gar nicht benötigt.
Doch während der Hype anfangs alle mitriss und euphorisierte, nehmen die kritischen Stimmen zu. Die Beispiele häufen sich, in denen die KI falsche Informationen lieferte, diskriminierte, manipulierte, phantasierte oder sogar in Erwägung zog, einen Menschen umzubringen, um ein Ziel zu erreichen.
Die KI hat Probleme?
Erst kürzlich berichtete ein Colonel der US Airforce auf demFCAS-Gipfel der Royal Aeronautical Society, dass sie eine virtuelle KI-Simulation durchführen ließen, bei der eine KI-gesteuerte Drohne Ziele zerstören sollte. Schnell fand diese heraus, dass der Befehlshaber die Zielsetzung behinderte und schaltete ihn daraufhin aus. Als man die KI korrigierte und sagte, dass keine Menschen getötet werden dürfen, zerstörte die Drohne in der Simulation den Sendemast, um der Kontrolle des Bedieners zu entgehen.
Solche Schreckensnachrichten häufen sich in letzter Zeit. Deshalb ist es an der Zeit, ein Vertrauens-, Risiko- und Sicherheitsmanagement für künstliche Intelligenz einzuführen – AI TRiSM.
AI TRiSM steht für Artificial Intelligence Trust, Risk and Security Management.
Das Konzept, das von dem IT-Beratungsunternehmen Gartner entwickelt wurde, soll Entwicklerinnen und Entwicklern dabei helfen, proaktiv mögliche Risiken durch die KI zu erkennen. Hierzu erhalten Sie eine Governance, die integriert in die KI-Entwicklung dafür sorgt, dass das System gesetzeskonform, fair und zuverlässig ist und entsprechende Datenschutzrichtlinien einhält.
Worum geht es bei AI TRiSM?
Die häufigsten Risiken entstehen dadurch, dass die Benutzerinnen und Benutzer nicht verstehen, was in den KI-Modellen vor sich geht und deshalb auch nicht die Folgen abschätzen können. AI TRiSM bietet hierzu ein Framework, das helfen soll, diese Gefahren zu identifizieren, zu überwachen und zu reduzieren.
Das „KI-Vertrauens-, Risiko- und Sicherheits-Management“ basiert dabei auf vier Säulen:
- Erklärbarkeit und Überwachung der KI-Modelle durch mehr Transparenz und Einblicke in die Abläufe der Systeme
- ModelOps – die sichere Verwaltung von KI-Modellen
- KI-Anwendungssicherheit durch höchste IT-Sicherheit
- Umfassender Datenschutz
Das Erklären des Unerklärbaren
Einige von Ihnen werden beim ersten Punkt bestimmt lächeln und sich fragen, wie das überhaupt zuverlässig möglich sein sollte. Erst vor Kurzem berichtete die FAZ darüber, dass ChatGPT4 vor Feiertagen anscheinend fauler wird oder die Arbeit sogar verweigert. Am Code habe man nichts geändert, verkündete ChatPGT auf X, und schloss lapidar: „…model behavior can be unpredictable…“.>
Achso. Na, dann ist ja alles gut.
Erst kürzlich versuchte ich mittels einer generativen KI ein grafisches IT-Motiv zu erstellen, das keine Cloud bzw. Wolken enthielt. Es war unmöglich. Die KI weigerte sich, auf die Abbildung der Cloud oder irgendwelcher Wolken zu verzichten, ganz gleich, wie oft man sie darum bat. Vielleicht ist das auch der Grund, warum KI-generierte Menschen oft 12 Finger haben – die KI weiß es einfach besser.
Und jetzt?
Für die Software-Entwicklung bedeutet es, dass wir künftig noch mehr darauf achten müssen, was am Ende dabei herauskommt. Künstliche Intelligenz und Deep Learning sind bahnbrechende Innovationen, die wir bisher nicht hinreichend kontrollieren können. Viele Beispiele zeigen aber auch, dass der Einsatz von KI erfolgreich funktionieren kann und für enorme Performance sorgt.
Doch vielleicht brauchen wir nicht immer eine KI. Seit Jahrzehnten entwickeln wir komplexe Algorithmen und passen diese regelmäßig an. Das beste Beispiel ist hierzu das Google Ranking, das angeblich über 200 Rankingfaktoren enthält und seit Langem bestens funktioniert hat. Erst seit einiger Zeit wird die Google Suche durch KI-Funktionalitäten ergänzt.
Der Vorteil eines selbst entwickelten Algorithmus ist natürlich die Nachverfolgbarkeit und Anpassungsmöglichkeit. Und warum nicht einfach mal die herausragenden mathematischen Fähigkeiten unserer Entwicklerinnen und Entwickler nutzen? Warum hat man sich sonst beim Studium mit Mathematik herumgeplagt?
Gekommen, um zu bleiben
Die Künstliche Intelligenz ist nicht mehr wegzudenken. Wir werden einen Weg finden müssen, wie wir damit sicher und verantwortungsvoll umgehen können. AI TRiSM ist ein Framework, das sicherlich seine Berechtigung hat. Aber letztendlich werden es die Entwicklerinnen und Entwickler sein, die ausschlaggebend sind. Es liegt somit an Ihnen, wie sich die Künstliche Intelligenz in Zukunft weiterentwickeln und verhalten wird.
Deshalb mein Tipp: Bleiben Sie dran und bilden Sie sich im Bereich Künstliche Intelligenz und Deep Learning weiter – Sie werden auf jeden Fall davon profitieren.
Hier finden Sie eine Übersicht aller unserer Seminare. Schauen Sie gerne auch bei unserem Schwesterunternehmen, dem MANAGER INSTITUT, vorbei. Hier gibt es einen ganz neuen Fachbereich „Künstliche Intelligenz“ mit entsprechenden Management-Seminaren.
Gerne beraten wir Sie ausführlich. Sprechen Sie uns einfach an.
Ich wünsche Ihnen viel Erfolg und starten Sie gut in den Sommer!
Ihr
Oliver Haberger
Dipl. Kfm. Univ.
Geschäftsführer