Unser Umfeld trifft permanent eigenständige Entscheidungen. Wie es zu diesen kommt, bleibt oft unklar. Was wir bei anderen Lebewesen in der Regel akzeptieren, beunruhigt Menschen im Kontext Künstlicher Intelligenz. Hier setzt eine neue Forschungseinrichtung an.
Für viele Menschen gleicht KI und deren grundlegende Funktionsweise noch immer einer Blackbox. Das CAIRO will Licht ins Dunkel bringen.
Manches wollen wir nicht wissen. Wissen kann aber auch beruhigen. Etwas, das uns alle interessieren sollte: Künstliche Intelligenz und wie sie Entscheidungen fällt.
Denn KI durchdringt immer mehr Bereiche. Wo sie unser Leben wie durch Zauberhand komfortabler gestaltet, nutzen wir sie gerne – oft ohne es zu merken. Gleichzeitig weckt sie aber auch Argwohn, oder gar Dystopien, gibt sich KI allzu offensichtlich als das zu erkennen, was sie ist: menschengemachte Mathe-Magie.
Mehr Transparenz wagen
Ein ganzheitliches Verständnis kann hier helfen. Dieses will das in Würzburg neu gegründete Center for Artificial Intelligence and Robotics (CAIRO) schaffen. Forschungsgrundlage ist die These, dass ein KI-System dem menschlichen Gehirn ähneln und sich ein Wertesystem aufbauen kann. Versteht man dieses, oder gestaltet es sogar mit, werden die Entscheidungen der KI nachvollziehbarer. Und Nachvollziehbarkeit wirkt als Gegenmittel zur Angst vor dem Unbekannten.
Von Angst ist auf dem Gesicht von Institutsleiterin Prof. Dr. Magda Gregorová nichts zu sehen. Sie lächelt freundlich, wenn sie erklärt, warum Besorgnis – zumindest gegenüber der Technik – fehl am Platz, Aufklärung aber durchaus angebracht ist. Eine angenehme Atmosphäre herrscht auch in ihrem Team. Der Ton zwischen der Professorin und ihren drei wissenschaftlichen Mitarbeiterinnen und Mitarbeitern ist ungezwungen. Alle duzen sich und wirken, als seien sie gerne hier. Selbst ein Doktorand, der es sichtlich eilig hat, lächelt und winkt auf dem Weg nach draußen. Auch von ihnen scheint niemand ängstlich.
Institutsleiterin Prof. Dr. Magda Gregorová will Aufklärungsarbeit leisten.
(Bild: Niko Wörtmann)
Man könnte entgegnen, dass das persönliche Angstempfinden auch an die individuelle Risikobereitschaft geknüpft sei. Und die liegt bei der Institutsleiterin im überdurchschnittlichen Bereich: Sie ist Bergsportlerin und nimmt als Radfahrerin am Würzburger Stadtverkehr teil. Mit noch frischen Gesichtsschürfwunden vom tags zuvor erlittenen Radunfall erklärt sie gelassen, dass auch so was eben mal passieren könne.
Aber: Sie trug einen Helm und der Unfall war ihr erster dieser Art. Sie kalkuliert Risiken also ein, die Statistik ist auf ihrer Seite. Und mit Statistik kennt sie sich aus – akademisch wie praktisch. Nach ihrem 2001 erworbenen Masterabschluss der Wirtschaftsuniversität Prag arbeitete sie zwölf Jahre lang auf dem Gebiet der angewandten Statistik; unter anderem für die Tschechische Nationalbank und die Europäische Organisation zur Sicherung der Luftfahrt in Brüssel. Zwischenzeitlich erwarb Gregorová ihren Doktortitel in maschinellem Lernen an der Fakultät für Informatik der Universität Genf, bevor sie im September 2021 die Forschungsprofessur für Repräsentationslernen an der Fakultät Informatik und Wirtschaftsinformatik der Fachhochschule Würzburg Schweinfurt (FHWS) antrat. Seit März 2022 leitet sie das CAIRO.
Das Zentrum wird primär durch die High-Tech Agenda Bayern finanziert und ist ein Teil des Institut Digital Engineering (IDEE). An der fakultätsübergreifenden Einrichtung erforschen fünf Forschungsprofessorinnen und -professoren den gesamten Themenkomplex Industrie 4.0.
Die Ergebnisse sollen über die Grenzen der technologienahen Institute hinaus- und beispielsweise in die Sozialwissenschaften oder die Medizin hineingetragen werden. Diese können dann gesellschaftlich relevante Themengebiete wie Robotik in der Pflege oder technologiebedingte Auswirkungen auf Sozialgemeinschaften untersuchen. Auch die fachärztliche Behandlung kann optimiert werden, indem fundiertere Entscheidungen über chirurgische Behandlungen möglich und postoperative Komplikationen verringert werden. Die Bereitschaft, Künstliche Intelligenz zu nutzen, ist für all das elementar. Und so schließt sich der Kreis zum zentralen Forschungsschwerpunkt des Kompetenzzentrums: Dem Aufbau eines Wertesystems für KI, das akzeptanzfördernd wirken soll.
Bildergalerie
Und diese Akzeptanz ist zwingend erforderlich, soll KI nicht nur eine „neue Sichtweise auf alte Probleme“ bieten, sondern dem Gesamtpotenzial gerecht werden, das Gregorová ihr zuschreibt: der „Konzentration auf die neuen Herausforderungen der Datenanalyse, wie die Notwendigkeit der effizienten Analyse großer Mengen komplexer Daten, die in zunehmendem Maße verfügbar sind“. Das Ziel dahinter müsse es laut der Wissenschaftlerin immer sein, die menschliche Lebensqualität zu verbessern. Robotik und KI sollen also nicht nur gefährliche Aufgaben in ungesunder Umgebung erledigen, sondern auch sich weitgehend wiederholende oder körperlich anstrengende Aufgaben mit Auswirkungen auf die langfristige Gesundheit übernehmen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel Communications Group GmbH & Co. KG, Max-Planckstr. 7-9, 97082 Würzburg einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von redaktionellen Newslettern nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung, Abschnitt Redaktionelle Newsletter.
„Was wir meiner Meinung nach brauchen, ist mehr Bildung“, ist sich die Wissenschaftlerin sicher. „Damit meine ich nicht mehr KI-Experten, sondern eine allgemeine Aufklärung, damit die Öffentlichkeit einerseits realistischer und andererseits weniger ängstlich wird.“
Hierzu wollen die Fachleute KI-Systeme entwickeln, die aus den bereitgestellten Daten diejenigen Regeln ableiten, die wir Menschen für wichtig halten und die wir in unserem täglichen Leben befolgen. Diese Werte „erbt die KI von uns Menschen“, erklärt Gregorová, „ähnlich wie ein Kind sein Wertesystem von seinen Eltern und der Gesellschaft, in der es aufwächst, erbt“.
Problematisch ist, dass wir Menschen uns nicht immer ganz so korrekt verhalten, wie wir es uns von den Maschinen wünschen. „Nichtsdestotrotz sind diese weniger erfreulichen Beispiele menschlichen Verhaltens oft in den Daten enthalten. Ohne einen Auslöser, um sie zu erkennen, wird die Maschine sie wahrscheinlich als akzeptablen Modus Operandi lernen“, räumt die Forscherin ein. Die zu lösenden Aufgaben beziehen sich also auch auf Unfairness und Voreingenommenheit – beides ziemlich menschlich. Nur übersehen wir das gerne. „Wenn es uns die Datensysteme zeigen, können wir deutlicher erkennen, wie sehr sie mit solch unangenehmen Beispielen menschlichen Verhaltens überflutet sind“, führt Gregorová aus. „Die Verwendung von Schimpfwörtern in Chatbots, die an echten menschlichen Gesprächen trainiert wurden, ist nur die Spitze des Eisbergs.“
Bleibt also doch die Gefahr, von autonomen Algorithmen versklavt zu werden?
Hier winkt die Forscherin lachend ab. Letztendlich sieht sie das größte Risiko im menschlichen Missbrauch der Technik: „Ich kann mir Beispiele für wirklich böswillige Absichten vorstellen.“ Oft resultiere KI-Skepsis aber daraus, „dass wir nicht verstehen, wie die Technik tatsächlich funktioniert. Was kann sie leisten und was nicht? Wann können wir uns auf sie verlassen und wann sollten wir vorsichtig sein? Wie sollen wir die Ergebnisse interpretieren und wie sollen wir sie nutzen?“
Das Entwicklungstempo ist sehr hoch und täglich werden neue KI-Werkzeuge für den Allgemeingebrauch verfügbar. Deren falscher Einsatz könne, auch unbeabsichtigt, zu schädlichen Entscheidungen oder Handlungen führen. Und da hier noch eine große Wissenslücke zwischen Fachwelt und Öffentlichkeit besteht, begreift Gregorová es auch als Aufgabe von Einrichtungen wie des CAIRO, zu verdeutlichen: Nicht die Technik verursacht den Schaden. Es ist der Mensch, der sie bedient. Gleiches gilt umgekehrt auch für den Nutzen.