KI ist längst Realität. Die Veröffentlichung von ChatGPT hat das Thema einer breiten Öffentlichkeit bewusst gemacht. Unser Experte Dr. Jaromir Konecny erklärt, was man beim Umgang mit KI beachten muss – und warum es ohne sie nicht mehr geht.
Wenn Künstliche Intelligenz Fehler macht, dann liegt das meistens am Menschen
Künstliche Intelligenz (KI) ist längst Realität. Die Veröffentlichung des Sprachmodells ChatGPT hat das Thema einer breiten Öffentlichkeit bewusst gemacht. Aber wo geht die Reise hin mit der KI? Haben wir Grund zur Sorge – oder müssen wir die Chancen nur bewusst nutzen? Um diese Fragen geht es beim komplexen AI TRiSM Ansatz. Unser Experte Dr. Jaromir Konecny erklärt, was das für den Umgang mit KI bedeutet – und warum es ohne sie nicht mehr geht.
AI TRiSM steht für Artificial Intelligence Trust, Risk & Security Management. Herr Dr. Konecny, was hat es damit auf sich?
"Den Begriff haben die Analyst:innen bei Gartner geprägt. Es geht darum, Akzeptanz und Vertrauen für den Einsatz von KI-Modellen in der Wirtschaft zu schaffen, dabei aber Risiken und Gefahren zu sehen und die KI zu kontrollieren. Das ist als Ansage an die Industrie zu verstehen, wenn diese mit KI-Modellen dauerhaft erfolgreich sein will. Stimmen die Ergebnisse? Was ist mit dem Datenschutz? Solche Dinge gilt es zu prüfen."
Da gibt es die Sorge, dass Kontrolle kaum mehr gelingen kann und die KI sich bald verselbstständigt. Fehlt es den Firmen schlicht am nötigen Know-how?
"Als Dozent für KI teile ich viele Ängste in Bezug auf die KI nicht. Es ist wie bei uns an der Hochschule: Wenn wir wissen möchten, ob der Unterricht funktioniert, prüfen wir die Studierenden zum Beispiel mit Klausuren oder evaluieren die Lehrangebote – und analysieren nicht ihre Gehirnaktivität. Damit wir den Ergebnissen der KI vertrauen können, müssen wir die KI entsprechend testen. Das geht nur, wenn wir damit arbeiten."
Die Entwicklung der KI geht aber vielen Menschen zu schnell. Können Sie es nachvollziehen, dass die Berichterstattung über ChatGPT für Erstaunen und Bedenken gesorgt?
"ChatGPT wurde darauf trainiert, eloquent mit uns zu kommunizieren – und dann schimpfen wir, wenn es gelingt! Ich sehe diese Modelle als wertvolle Werkzeuge, die man natürlich richtig einsetzen muss. Das geht aber nicht, wenn wir den Umgang damit ablehnen. Wenn die Modelle Fehler machen, hat das meistens mit den Menschen zu tun, die sie trainieren und einsetzen. Und mit dem Stand der Entwicklung dieser Modelle. Es gibt selbstverständlich Probleme, aber die werden immer besser gelöst."
Wie sollen die Firmen den sicheren Einsatz der KI gemäß des AI TRiSM-Ansatzes denn gewährleisten können, wenn uns schon ein Chatprogramm so verunsichert?
"Natürlich wird man sich nicht immer einen KI-Experten leisten können. Grundsätzlich werden die Unternehmen aber großen Wert darauflegen, KI vertrauensbildend einzusetzen und Risiken zu erkennen und auch zu benennen. Hier ist ausgiebiges Testen wichtig, da man oft nicht voraussieht, was schief gehen kann. Ein Beispiel: Microsoft wollte den Chatbot Tay einmal anhand von Tweets darauf trainieren, so zu kommunizieren, wie junge Menschen es tun. Nun, wenn ich einen Chatbot mit Sätzen trainiere, die auch Rassistisches beinhalten, dann brauche ich mich nicht zu wundern, wenn der Chatbot nachher rassistische Ansagen macht. So etwas passiert, aber das hat man auch transparent kommuniziert."
Gleichzeitig hat ausgerechnet Big Tech nicht gerade ein positives Image, wenn es um Begriffe wie Vertrauen, Transparenz oder Datenschutz geht, die AI TRiSM umfasst.
"Misstrauen gegenüber Großkonzernen ist berechtigt. Plattformen wie Google oder Meta wollen zuerst Geld verdienen. Aber wir müssen bei aller Kritik integer bleiben! Mir ist Mark Zuckerberg auch nicht sympathisch. Doch solches Denken führt zu Vorbehalten: Meta musste sein Chatprogramm Galactica schnell wieder aus dem Verkehr ziehen. ChatGPT machte auch grobe Fehler. Doch das Modell kommt von OpenAI, die haben ein anderes Image als Meta, da gab es nicht dieselben Bedenken. Aber OpenAI wird mittlerweile massiv von Microsoft finanziert, weshalb ChatGPT jetzt in deren Suchmaschine Bing drinsteckt. Google steht mit dem Einsatz seines Chatbots Bard in seine Suchmaschine in den Startlöchern. Welche Plattform jetzt mehr Menschen anspricht, weiß niemand. Mit den Chatbots arbeiten wollen auf jeden Fall viele. Und man verdient bereits auch Geld damit."
Heute eine Suchmaschine – und morgen? Müssen wir uns Sorgen machen, dass die KI irgendwann ein eigenes Bewusstsein entwickelt?
"Ich finde es absurd, wenn wir KI-Modellen eine Seele oder ein Bewusstsein attestieren, bloß weil sie unsere Sprache nachahmen können. Wenn der ehemalige Google-Mitarbeiter Blake Lemoine Persönlichkeitsrechte für ein Programm einfordert – Entschuldigung, da muss ich lachen. Ein Problem im Umgang mit KI ist, dass das Wissen darüber zu großen Teilen aus der Popkultur kommt. Wir alle kennen den Terminator und wissen, dass der Bordcomputer Hal 9000 im Film 2001 – Odyssey im Weltraum Menschen umbringt, um die ihm einprogrammierten Ziele des Flugs zu erreichen. Das sind falsche Vorstellungen, die einem sicheren und sinnvollen Einsatz von KI entgegenstehen. Es beginnt schon beim deutschen Begriff Künstliche Intelligenz. Man hat ‘Intelligence’ 1:1 aus dem Englischen übernommen. Ist es aber stimmig? Die Central Intelligence Agency (CIA) heißt ja auch nicht so, weil die so gescheit sind, sagte der österreichische KI-Pionier Robert Trappl. ‘Intelligence’ bedeutet auch Informationsverarbeitung. Für mich sind KI-Modelle wichtige Werkzeuge, mit denen man umgehen lernen muss."
In einem Blogbeitrag haben Sie argumentiert, dass man doch auch nicht alle Messer verbieten würde, bloß weil man damit jemanden verletzen kann. Aber können sich diese Werkzeuge nicht furchteinflößend entwickeln?
"Entdeckungen können als todbringende Waffen missbraucht werden, aber auch zu friedlicher Nutzung führen: uns zu helfen den Klimawandel zu stoppen oder gefährliche Krankheiten zu bekämpfen. Die KI ist in der Welt, wir müssen uns damit auseinandersetzen. Dass wir eines Tages zum Beispiel eine Super-Intelligenz schaffen, oder dass sie sich selbst erschafft, das wird oft beschworen. Aber diese Gefahr sehe ich nicht. John von Neumann hat schon vor Jahrzehnten gezeigt, dass eine Maschine keine andere Maschine entwickeln kann, die klüger ist als sie selbst."
Vielleicht noch nicht?
"Eine Maschine kann keine klügere Maschine entwickeln, als sie selbst ist. Das wäre ein Paradox. Wenn eine Maschine etwas erschafft, dann ist sie klüger als das Erschaffene. Schauen Sie sich aber in Ihrem Alltag um: Wann haben Sie zuletzt ein Programm oder eine App installieren wollen, aber Ihr Gerät konnte die Mindestanforderungen nicht erfüllen? Zu langsam, zu wenig Speicher: Unsere Hardware hinkt der Entwicklung der Software immer schon hinterher. Wir erfahren ständig Grenzen, wie soll sich KI da autonom entwickeln? Wenn eine Maschine etwas tut, was ich nicht haben will, dann schalte ich sie einfach ab."
Wie sollen wir also umgehen mit der KI?
"So, wie wir es bislang schon tun: KI-Forschung und Data Science haben sich zum größten Open Source Projekt der Menschheit entwickelt. Jede Studie zum Thema wird veröffentlicht. Die großen Plattformen haben reges Interesse daran, dass ihre wissenschaftlichen Artikel und Blogs gelesen und ihre Modelle als open source getestet werden. Ein sicherer Umgang mit KI-Modellen kann nur gelingen, wenn wir alle Zugang zu den Modellen haben und diese auch nutzen. Und wenn wir uns in Sachen KI bilden. Dann haben wir selbst größere Chancen in der Zukunft als Menschen, die lieber Terminator schauen als zu lernen."
Und der Datenschutz?
"Klar habe ich da auch Bedenken. Fakt ist aber, dass wir heute keine Deep-Learning-Modelle hätten, wenn wir das Sammeln von Daten komplett verhindert hätten. Die gäbe es dann nämlich nur in Ländern ohne umfassenden Schutz personenbezogener Daten. Ich habe schon vor Jahren einen Kollegen aus China gefragt, warum sie uns mit Künstlicher Intelligenz so weit voraus sind. Er hat nur gelächelt und gemeint: Wir haben die Daten. Und das stimmt: Man kann keine vernünftigen KI-Modelle entwickeln, wenn man keine Datensätze zur Verfügung hat."
Was müssen wir in Forschung und Lehre verbessern, um zu einem guten Umgang mit der KI zu kommen?
"Hier an der SRH Fernhochschule sind wir schon sehr gut aufgestellt. Wir beschäftigen Fachdozent:innen und Professor:innen, die intensiv zur KI und deren Einsatz in der Wirtschaft forschen, insbesondere im Gesundheitsbereich."
Aber gerade an Schulen und Hochschulen kann KI doch zum Problem werden. Oder haben Sie nicht die Sorge, dass Ihre Studierenden ihre Seminararbeiten bald nicht mehr selbst recherchieren und schreiben, sondern dass ChatGPT das für sie erledigt?
"Wir werden die Potenziale der KI auch in der Lehre nutzen. Ein Programm wie ChatGPT begreifen wir als Chance für unsere Studierenden – und nicht in erster Linie als Risiko, dass beim Verfassen von wissenschaftlichen Arbeiten betrogen wird. Natürlich sehen wir auch die Herausforderungen. Aber wenn wir uns an die 1990er-Jahre erinnern: Damals wurde diskutiert, ob die ständige Erreichbarkeit per Handy und E-Mail uns Menschen unselbständig macht. Softwarelösungen wurden wie heute die KI als Risiko und nicht als Erleichterung empfunden. Ich bin mir sicher, dass wir auf diese technische Revolution in zehn Jahren gelassen zurückblicken werden. Mit Innovationen ist wie beim Wetter: Man kann es nicht verhindern, sondern sich nur richtig anziehen."
Auf Ihrem YouTube Channel KI Krimis erläutern Sie, wie Sie mithilfe des KI-Modells DALL·E 2 etliche Bilder gemalt haben. Gehen da nicht Fähigkeiten verloren, wenn Künstler:innen irgendwann vielleicht gar nicht mehr mit den Händen malen?
"Auch hier sehe ich die KI als ein Werkzeug, wie Farbe und Pinsel. Kunst entsteht zunächst im Kopf. Fotograf:innen oder Videofilmer:innen schaffen doch auch Kunst und tun dies ganz selbstverständlich mit digitalen Werkzeugen. Außerdem braucht es auch für klassische Kunst nicht immer Kunstfertigkeit. Malewitsch hat mit seinem Schwarzen Quadrat einen Meilenstein der Moderne geschaffen. Besondere malerische Fähigkeiten hat er dafür nicht gebraucht."
Zum Schluss eine Frage, die uns beide betrifft: Sie führen dieses Gespräch mit einem Menschen – jemandem, der sein Geld mit dem Schreiben von Texten verdient. Sie selbst sind neben Ihrer wissenschaftlichen Arbeit auch als Schriftsteller und Slam-Poet sehr erfolgreich. Sollten nicht wenigstens wir ins Grübeln kommen?
"Sprachmodelle werden besser werden, aber sie sind weder kreativ, noch kann man sich auf ihre ‘Fakten’ immer verlassen. Ich kenne SchriftstellerInnen, die ihre Texte immer noch am liebsten von Hand schreiben. Für die meisten ist ein Textverarbeitungsprogramm aber eine große Erleichterung. Die Entwicklung wird jedenfalls auch vor kreativen Berufen nicht halt machen. Entscheidend ist wie gesagt, wie wir damit umgehen: KI-Modelle sollen uns nicht ersetzen, sondern unsere Fähigkeiten erweitern."
Sie interessieren sich für Digitalisierung?
Dann entdecken Sie unsere Themenwelt. Spannende Inhalte und Studiengänge erwarten Sie.