Wie vertrauenswürdig ist Künstliche Intelligenz wirklich?
Vertrauen Sie Ihrer KI blind – oder hinterfragen Sie doch die ein oder andere Antwort? Ein internationales Forscher*innenteam unter Co-Leitung der FH Oberösterreich hat das Thema Vertrauen in Künstliche Intelligenz umfassend analysiert und ein neues Forschungsmodell vorgestellt.

„Vertrauen ist gut, Kontrolle ist besser“ – das jedenfalls postuliert der Volksmund. Aus der Sicht der Wissenschaft liegt er hier gar nicht falsch. Denn Vertrauen ist ein soziales Bindemittel, das Menschen und Gesellschaften zusammenhält und zwischenmenschliche Interaktionen ermöglicht. In den letzten Jahren betrat mit der Künstlichen Intelligenz (KI) ein weiterer Akteur die Bühne, mit dem Potenzial, uns Menschen in die Irre zu führen. Anlass genug für ein internationales Forscher*innenteam unter der Co-Leitung von René Riedl vom Campus Steyr der FH Oberösterreich zu fragen: Wie ist es um unser Vertrauen in die KI bestellt?
Hohes Maß an Chancen – aber auch an Risiken
KI hat das Potenzial, unser Leben in mehrfacher Weise zu verbessern. So können textliche und visuelle Inhalte unterschiedlichster Art effizient generiert und Aufgaben automatisiert werden. All das steigert die Produktivität. Doch es bestehen auch zahlreiche Risiken. Algorithmen, die etwa im Bewerbungsprozess verwendet werden, können – ebenso wie Menschen – versteckte Vorurteile enthalten. Wenn es um Desinformation geht, ist KI sowieso eine ernstzunehmende Gefahr. Das ließ sich an Beispielen im politischen Meinungsbildungsprozess in mehreren Ländern zuletzt deutlich beobachten.
Vertrauen in die KI – Vertrauen in deren „Macher*innen“?
Letztlich steht das Vertrauen auf dem Spiel – nicht nur in KI-Systeme an sich, sondern auch in die Menschen, Unternehmen und Institutionen, die sie entwickeln, einsetzen und regulieren. Da KI zunehmend in Entscheidungen mit gravierenden Auswirkungen eingreift – von der Gesundheitsversorgung bis zur Kriegsführung – müssen Vertrauen und Rechenschaftspflicht zentrale Anliegen werden.
Beitrag in renommiertem internationalem Fachmagazin
Im Detail beleuchtet werden diese Themen ein einem kürzlich veröffentlichten Open-Access-Artikel in der renommierten Fachzeitschrift Humanities and Social Sciences Communications. Er wurde verfasst von einem internationalen Team unter der Co-Leitung von Riedl vom Campus Steyr der FH Oberösterreich, Leiter des Joint-Masterstudiengangs „Digital Business Management“ von FH Oberösterreich und JKU Linz. Die Ideen für den Fachartikel entstanden bei einem von der FH Oberösterreich mitinitiierten Trust-Workshop in Wien, bei dem Riedl gemeinsam mit Frank Krueger von der George Mason University in den USA interdisziplinäre Expert*innen einlud, unter anderem von der britischen Oxford University und der amerikanischen Standford University, um Vertrauen im technologischen Kontext zu untersuchten.
Anschub für „Vertrauen und KI“ als Forschungsfeld
Eines ist sicher: KI wird unsere Welt verändern. Um diesen Wandel verantwortungsvoll zu gestalten, müssen alle Beteiligten – Entwickler*innen, Investor*innen, Regulierungsbehörden und Forschende – zusammenarbeiten, damit Vertrauen im Zentrum des KI-Zeitalters bleibt oder, wenn nötig, zurückgewonnen wird. Die Autor*innen beschreiben in ihrem nun veröffentlichten Beitrag einen transdisziplinären Ansatz und wollen dadurch international noch mehr Forschung zum Thema „Vertrauen in KI“ forcieren. Dieser Ansatz, der als TrustNet Framework bezeichnet wird, beschreibt ein dynamisches Netzwerk aus technischen Systemen, Institutionen und menschlichen Beziehungen, das Vertrauen in KI nicht isoliert, sondern als gemeinschaftlich erzeugtes und kontextabhängiges Phänomen begreift.