Let's Talk Business #Episode 14: KI-Nutzung in Justiz und Verwaltung

Shownotes

Zu Gast in dieser Episode sind Mascha Kurpicz-Briki und Matthias Stürmer.

Mascha Kurpicz-Brikiist Professorin für Data Engineering am Departement Technik & Informatik der BFH. Ihr Spezialgebiet ist Künstliche Intelligenz und Natural Language Processing.

Matthias Stürmer leitet das Institut Public Sector Transformation am Departement Wirtschaft der BFH und forscht u.a. zu Digitale Nachhaltigkeit, Open Data und Datensouveränität.

Um den Einsatz von KI in der Verwaltung dreht sich auch unsere Transform-Konferenz am 3. Mai im Berner Rathaus.

Links zum Thema:

Matthias Stürmer

[Institut Public Sector Transformation](https://www.bfh.ch/de/forschung/forschungs bereiche/public-sector-transformation/)

Projekt OpenJustice vs. Privacy

Mascha Kurpicz-Briki

Arbeitsgruppe Applied Machine Intelligence

Projekt Erkennung & Abschwächung von Vorurteilen in auf dem Arbeitsmarkt eingesetzter KI

Dieser Podcast wird produziert mit freundlicher Unterstützung von: Audioflair Bern und Podcastschmiede Winterthur

Transkript anzeigen

Transkript BFH Episode 14

Anne: “Let's Talk Business”. Nachhaltigkeit und Digitalisierung verändern unser Leben in allen Bereichen. Während die digitale Transformation rasant verläuft, geht es beim nachhaltigen Wandel langsam voran. Doch beide Prozesse sind nicht umkehrbar. Mein Name ist Anne-Careen Stoltze und im Podcast der BFH Wirtschaft spreche ich mit unseren Wissenschaftler:innen über ihre Forschungsthemen. Von Kreislaufwirtschaft über Innovationen bis Data Science.

Anne: Herzlich willkommen zur neuen Folge unseres Podcasts. Heute begrüsse ich Mascha Kurpicz Pricki. Sie ist Professorin für Data Engineering am Departement Technik und Informatik der BFH. Ihr Spezialgebiet ist Künstliche Intelligenz. Hallo Mascha.

Mascha: Hallo Anne. Freut mich, hier zu sein.

Anne: Und ich begrüsse Matthias Stürmer. Er leitet das Institut Public Sector Transformation am Department Wirtschaft der BFH und forscht unter anderem zu Datensouveränität und Sprachmodellen. Hallo Matthias.

Matthias: Hallo Anne.

Anne: Ich freue mich, dass ihr da seid. Heute sprechen wir über ein Thema, das seit Anfang des Jahres für Furore sorgt. ChatGPT. Das ist ein Chatbot, ein trainiertes Programm, der eigentlich über jedes Thema reden und Gespräche führen kann, die ziemlich menschlich anmuten. Aber ChatGPT unterlaufen ja auch Fehler. Mascha, du hast das genauer angeschaut. Was ist dir denn dabei aufgefallen? Welche Fehler macht das Modell?

Mascha: Ja, das Modell ist darauf ausgerichtet, Antworten zu geben, die möglichst ähnlich sind, zu Antworten, die Menschen geben. Kann aber natürlich inhaltlich nicht einschätzen, ob das wirklich richtig ist. Also man muss sich das vielleicht vereinfacht so vorstellen, dass das System ja, ganz vereinfacht gesagt, mit Wahrscheinlichkeiten arbeitet. Welches Wort als nächstes kommt in so einem Satz, wenn es das generiert. Das heisst, es hat die Möglichkeit, Informationen wiederzugeben, diese Texte zu generieren, die auch tatsächlich sehr plausibel aussehen, aber tatsächlich dann inhaltlich auch falsch sein können.

Anne: Sag mal ein Beispiel.

Mascha: Also ein Beispiel, das online häufig gezeigt wurde, ist, dass zum Beispiel aufgefordert wurde, den Lebenslauf von einer bestimmten Person zu beschreiben. Und dann kann das natürlich sein, wenn das jetzt so eine bekannte Person ist, dass da wirklich wahre Sachen drin sind, die jetzt in den Trainingsdaten vorhanden waren, weil das irgendwo so beschrieben wurde. Aber es kann dann auch sein, dass vollkommen erfundene Tatsachen da dann auftauchen.

Anne: Okay. Und noch ein anderes Problem bei ChatGPT sind ja Bias, also Vorurteile. Du hast in einem Forschungsprojekt untersucht, das künstliche Intelligenz diskriminiert. Wie zeigt sich das?

Mascha: Genauso. Wir wissen ja, dass bei künstlicher Intelligenz der Bias ein ziemlich grosses Problem ist. Also, dass es eben Verzerrungen gibt, einerseits, oder insbesondere, in den Trainingsdaten, auf denen solche Systeme trainiert wurden. Weil das sind ja schlussendlich Daten, die unsere Gesellschaft produziert hat. Das heisst, die Daten enthalten alle die Diskriminierungen und Stereotypen, die wir in der Gesellschaft haben. Die sind in den Daten drin. Und wenn wir dann die künstliche Intelligenz darauf trainieren, dann sind automatisch auch diese Stereotypen drin vorhanden. Und das ist bei KI ganz allgemein ein Problem und auch im Bereich der automatischen Sprach- oder Textverarbeitung. Das ist das, was wir Natural Language Processing nennen und wo eben auch ChatGPT drunter fällt, unter diese Kategorie von Software, wenn man so sagen will. Und da ist es effektiv so, dass die Texte eben auch diese Stereotypen enthalten. Also die grossen Mengen von Texten, welche verwendet werden, um solche Modelle wie das, was auch von ChatGPT verwendet wird, zu trainieren. Und ja, das ist manchmal gar nicht so einfach festzustellen, ob jetzt da ein Bias drin ist. Gerade auch bei ChatGPT, das sehr ausweichend reagiert auf solche Fragen in den neueren Versionen. So ganz am Anfang war es viel einfacher. Es gab viele Beispiele online, die mit den ersten Versionen von ChatGPT relativ einfach ein Bias nachweisen konnten. Aber jetzt reagiert das System häufig sehr ausweichend, indem es sagt: "Ich möchte mich nicht dazu äussern." Oder: "Ich bin nur ein Sprachmodell und das Thema ist zu heikel." Und so weiter. Was wir aber gesehen haben ist, dass der indirekte Bias, also diese grundlegenden Stereotypen, da immer noch drin sind. Also wir haben kurze Geschichten generiert, einerseits für männliche Vornamen und andererseits für weibliche Vornamen und haben dann gesehen, dass beispielsweise die Berufe, die diesen Personen in den fiktiven Geschichten zugeteilt wurden, doch sehr unterschiedlich waren für die Männernamen oder für die Frauenvornamen.

Anne: Also bei den Männernamen gab es dann stereotype männliche Berufe? Und für Frauen so vorurteilsmässig oder klischeemässig weibliche Berufe? Meinst du das damit?

Mascha: Genau. Genau, das ist das, was wir da gesehen haben. Natürlich dann nicht immer, aber wenn man so die Gesamtmenge anschaut, konnte man da ganz klare Tendenzen erkennen, die halt dadurch kommen, dass diese Stereotypen in diesen Daten und in diesen Sprachmodellen drin kodiert sind.

Anne: Könnte man jetzt sagen, man hat für ChatGPT auch zum Teil eben falsche Daten gesammelt oder müsste man ChatGPT noch mit anderen Daten trainieren? Diskriminierungsfreie Daten? Oder geht das überhaupt?

Mascha: Ja, das ist ein Thema, das eben in der Forschung und sicher auch von diesen grossen Firmen angegangen wird. Aber es ist eben gar nicht so einfach. Ich sage mal, das Einfachste wäre, wenn wir als Gesellschaft einfach aufhören würden, Stereotypen zu haben oder in den Daten zu codieren. Aber schlussendlich ist das ja nicht von einem Tag auf den anderen möglich. Das heisst, wir arbeiten mit Daten, die historisch entstanden sind und die sind einfach ein Produkt ihrer Zeit und enthalten entsprechend diese Stereotypen. Und das ist ja eben genau auch Teil unserer Forschung, diese Stereotypen und diese Verzerrungen aus den Trainingsdaten und Sprachmodellen rauszubringen. Aber es ist eben gar nicht so einfach.

Anne: Ja, nun ist es ja so, es ist eigentlich ganz nett, mit ChatGPT zu plaudern und jeder kann das jetzt auch machen. Aber wofür kann man denn künstliche Intelligenz in der Praxis einsetzen? Also zum Beispiel für schwierige Aufgaben, die ein Mensch nicht so gut kann? Matthias, ihr entwickelt an eurem Institut derzeit ein Sprachmodell für juristische Texte. Was kann ich mir darunter vorstellen?

Matthias: Ja, wie wir gehört haben, ChatGPT ist so ein allgemeines Sprachmodell, mit dem man über alles Mögliche im Leben und sonst wo plaudern kann oder auch eben sehr spannende Texte generieren kann. Wir haben uns fokussiert, bei unserem Institut, auf rechtliche Themen, weil wir dort einen gewissen Fokus haben aus dem Verwaltungskontext heraus. Das ist einerseits ein Forschungsprojekt NFP 77, wo es darum geht zu prüfen, ob Gerichtsurteile, die anonymisiert sind, de-anonymisiert werden können, um quasi Personen zu re-identifizieren. Und das wäre eine Gefahr letztlich für die Privatsphäre. Nichtsdestotrotz wird man diese Gerichtsurteile ja veröffentlichen, damit Transparenz über das Gerichtswesen besteht. Und da prüfen wir mit Juristen zusammen, was sind die Möglichkeiten oder eben zum Glück auch die Grenzen der künstlichen Intelligenz, dass das zum Beispiel nicht so schnell möglich ist. Und in dem Zusammenhang haben wir uns eben damit befasst, wie so juristische Texte aufgebaut sind. Gerichtsurteile, da gibt es klare Strukturen. Gewisse Absätze haben bestimmte Funktionen und die haben wir dann untersucht und haben immer mehr gemerkt, dass es dieses Sprachmodell, das quasi auf juristische Terminologie fokussiert ist und auch Deutsch und Französisch und Italienisch versteht, noch gar nicht gibt. Und in dem Zusammenhang haben wir uns dann quasi an die Arbeit gemacht, diese Grundlagen zu erarbeiten.

Anne: Also, Juristendeutsch sagt man ja auch, ist eine sehr spezielle Sprache. Ist es schwieriger, ein Modell darauf zu trainieren, als auf, sagen wir mal, unsere Umgangs-, Alltagssprache?

Matthias: Ja, man fokussiert sich dann halt wirklich auf Gesetzestexte, Gerichtsurteile, juristische Kommentare, Publikationen, alles Mögliche, was eben diese Terminologie beinhaltet. Und im Gegensatz dazu sind dann ChatGPT und andere generische Sprachmodelle, typischerweise auf Wikipedia Texten oder anderen Texten aus dem Internet trainiert, die irgendwelche News oder sonstige sprachliche Erzeugnisse darstellen. Und juristisch, also eben dieses Legal Language Model, dieses Rechtssprachmodell, das ist wirklich ausschliesslich auf tausenden Millionen von Texten, die nur aus juristischer Sprache bestehen, aufgebaut.

Anne: Und kann dieses Modell, also eben weil es ja Juristendeutsch ist, es ist ja eine sehr nüchterne Sprache, eine, na ja, wie soll ich das sagen, also ein bisschen auch eine künstliche Sprache. So spricht ja niemand von uns. Würdest du sagen, Mascha, dass diese Sprache deshalb diskriminierungsfreier ist als unsere Alltagssprache?

Mascha: Oh, das ist natürlich eine schwierige Frage. (lacht)

Matthias: Gemeinsames Forschungsprojekt für die Zukunft. (lacht)

Mascha: Also es gibt natürlich da verschiedene Aspekte, wieso Diskriminierung auftreten kann. Einerseits, so sage ich mal, die gendergerechte Sprache an sich, also wird gegendert. Ich weiss nicht, inwiefern das der Fall ist bei solchen juristischen Texten oder wie durchgehend das der Fall ist. Das andere ist natürlich, die Hintergründe zu diesen Fällen, wie ausgewogen das ist. Inwiefern Informationen über bestimmte Gruppen vorhanden sind. Also da stellen sich schon, obwohl man vielleicht sagen könnte, dass die Sprache an sich nüchterner ist, ganz, ganz, ganz viele Herausforderungen, die man sicher auch weiter analysieren könnte in Bezug auf Potenzial zur Diskriminierung.

Anne: Und wie, also wofür würde das dann später angewendet werden, dieses juristische Modell? Das Sprachmodell?

Matthias: Ja, das ist gute Frage. Also letztlich kann man sich das vorstellen, dass ist wie so eine Grundlage, ein Fundament, auf dem können jetzt verschiedene Häuser oder Anwendung gebaut werden. Ich versuche es auch immer ein bisschen zu vergleichen mit einem Motor, den wir jetzt da entwickelt haben, so einen Düsenjet, und den kann man jetzt an verschiedenen Orten einsetzen. Verschiedene Modelle, kann man jetzt Flugzeuge bauen, die dann gewisse Strecken fliegen können. Also konkret jetzt in unserem Fall, geht es in erster Linie darum, fürs Bundesgericht ein Sprachmodell zu generieren, das sehr gut eben diese Anonymisierung vornehmen kann. Bisher wurde das manuell, also sprich mit Suchen und Ersetzen-Befehlen gemacht. Was schon sehr gut funktionierte, aber oftmals sind halt in Gerichtsurteilen auch Personenidentifizierende Merkmale drin und das soll jetzt eben das neue Sprachmodell noch besser herausfiltern können. Und das ist so die Ursprungsidee. Aber wir haben jetzt auch schon ein bisschen experimentiert. Was ist der Unterschied der generischen Sprachmodelle und des spezifischen Sprachmodells? Und da sieht man, das erkennt beispielsweise so Lückentexte viel besser. Es kann quasi die Lücken präziser füllen als ein generisches Sprachmodell. Und jetzt kann man sich beliebige Ideen ausdenken. Also einerseits mal eine Idee war, diese Juristen-Texte sind immer ziemlich schwierig zu verstehen. Und es gibt gerade bei Natural Language Processing so eine Aufgabenstellung, ein Schritt, ein Prozessschritt, der heisst Textvereinfachung. Also man kann in dem Sinn versuchen, jetzt mit diesem Juristenmodell eine Vereinfachung der Sprache zu produzieren. Das ist noch ein bisschen eine der Ideen, die wir haben. Wir haben es noch nicht ausprobiert, aber das ist ein bekanntes Forschungsgebiet in der NLP, Natural Language Processing, dass man versucht, Texte inklusiver zu haben, dass Leute das gut verstehen können.

Mascha: Ja, ich denke, das ist ein sehr schönes Beispiel, wo man auch sieht, wie diese Sprachmodelle zur Inklusion eingesetzt werden können. Weil einerseits haben wir natürlich die Diskriminierungsgefahr, die wir beachten müssen, aber andererseits gibt es natürlich auch ganz viele tolle Use Cases, wo Sprachmodelle wirklich einen guten Nutzen mitbringen können.

Anne: Und ich möchte noch mal ganz kurz auf die Anonymisierung zurückkommen. Also wenn jetzt Gerichtsurteile sind, das kommt ja in die Akten, nehme ich an. Das wird irgendwie irgendwo zentral abgelegt. Und dann gibt es doch auch die Möglichkeit, dass man später, also wenn jetzt Juristen irgendwie einen neuen Gerichtsfall haben, Präzedenzfälle nachschlagen kann. Wird es für solche Zwecke anonymisiert? Auch? Oder wofür ist das Anonymisieren wichtig?

Matthias: Also die Anonymisierung ist so generell ein Vorgehen, das in Gerichten praktiziert wird, damit quasi die Privatsphäre der Klägerparteien nicht gebrochen wird. Also es geht um Personennamen, aber auch um Firmennamen, die anonymisiert werden, damit der Inhalt des Gerichtsfalls letztendlich veröffentlicht werden kann. Das Forschungsprojekt heisst Open Justice versus Privacy. Das ist letztlich ein Spannungsfeld. Man will einerseits Transparenz haben, damit es nachvollziehbar ist. Insbesondere wenn Bundesgerichtsentscheide sagen, der ist schuldig oder die ist unschuldig und so, dass dann nachvollziehbar ist und möglichst eben auch detailliert nachvollziehbar ist, warum wurde so entschieden. Ausserdem, dass man die Personennamen und die Firmennamen rauslöschen will. Und jetzt ist eigentlich die Frage… Oder die Angst besteht bei den Juristinnen, dass man dann mit Big Data, mit künstlicher Intelligenz, halt plötzlich einfach so schnell Dinge de-anonymisieren kann. Und das konnten wir jetzt eigentlich schon beweisen oder zeigen, dass es eben nicht so einfach ist. Also das ist eigentlich selbst mit sehr grossen Modellen, mit ChatGPT, wir haben das auch ein bisschen ausprobiert. Kann man mit ChatGPT Gerichtsurteile de-anonymisieren? Nein, geht natürlich nicht. Also es ist wirklich mit vertretbarem Aufwand nicht zu machen. Und jetzt kann man aber schauen, was könnte man sonst noch Sinnvolles tun. Das eine ist eben diese Vereinfachungsidee, das andere wäre beispielsweise eine Art Zusammenfassung generieren. Es gibt so weitere NLP, Natural Language Processing, Aufgaben, die sagen...

Anne: Also eine Zusammenfassung vom Gerichtsurteil?

Matthias: Genau das meine ich. Letztlich werden diese komplexen Sachverhalte, seitenlang werden die erläutert, dass man jetzt eigentlich die künstliche Intelligenz brauchen kann, die diese juristische Sprache versteht, um gute Zusammenfassungen zu schreiben, die eigentlich alle wichtigen Elemente wiedergeben. Und das sind weitere mögliche Anwendungen, dass man diese Riesenmengen von pro Jahr x-tausend Gerichtsurteile allein in der Schweiz produziert. Das kann niemand alleine lesen. Aber wenn man Zusammenfassung generieren kann, hilft es einem dann trotzdem, den Überblick zu behalten.

Anne: Du hast ja ein Risiko angesprochen, also das Thema Datenschutz Privacy. Was gibt es noch für Risiken?

Matthias: Ja, also das, was Mascha gesagt hat, ist sicher ein Riesenthema. Diese Bias, diese Diskriminierung, dass quasi Rollenbilder noch verstärkt oder quasi wiedergegeben werden. Womit wir uns beschäftigen, ist auch die Idee der digitalen Souveränität. Heute werden sehr viele KI Modelle von grossen Firmen, eben amerikanischen, chinesischen Firmen, produziert, weil das sehr viel Rechenpower, sehr viel Energie, sehr viel IT Infrastruktur braucht. Und wir möchten aufzeigen, dass es eben auch geht, dass wir selber in der Schweiz mit eigenen Ressourcen solche Modelle herstellen können. Weil faktisch all diese ChatGPTs, die es da gibt, es gibt ja unterdessen mehrere solche Anwendungen, die sind irgendwie eine Blackbox. Wir wissen nicht, wie, mit welchen Grundlagen, Daten trainiert wurden. Wir wissen nicht, mit welchen Algorithmen, mit welchen zusätzlichen Schutz oder eben Nicht-Schutzmechanismen die ausgestattet sind. Alles komplett intransparent. Also man kann das nur mit so ein bisschen ausprobieren, ein bisschen herausspüren, was geht, was geht nicht. Unsere Idee ist, dass man das viel stärker noch transparent machen muss. Welche Texte wurden genommen, wie wurden sie trainiert, wie wurden Absicherungen gemacht? Das ist das, womit wir uns auch befassen, damit das Risiko, dass wir da abhängig sind von irgendwelchen Firmenvorgaben, die dann intern vielleicht bis hin zu politisch oder welche Themen auch immer, verdrehen können faktisch. Dass wir das eigentlich mehr auch demokratisch, mehr auch für die Gesellschaft, im Fokus haben möchten.

Anne: Wäre es also aus deiner Sicht oder aus eurer Sicht fairer, dass man das auch mit veröffentlicht? Wie man die trainiert hat?

Matthias: Absolut. Ich meine, was es gibt, ist so die Idee der UNO, die Rede von Digital Public Goods, dass die dazu helfen sollen, um Nachhaltigkeit zu erreichen. Und da sind Open AI Models, also die offenen KI Modelle, ein Bestandteil davon. Dass die auch mit veröffentlicht werden. Und in unserer Forschung ist das wie klar, dass man den Korpus veröffentlicht. Das sind 700 Gigabyte von Textdaten für diese juristischen Daten und wir veröffentlichen die eigentlichen Grundlagen, Sprachmodelle und den ganzen Quellcode. Also, dass es wirklich von A bis Z offengelegt ist.

Mascha: Ja, ich denke auch, dass Transparenz da ganz, ganz wichtig ist. Weil nur wenn diese Transparenz herrscht, haben wir überhaupt die Möglichkeit, genauer hinzuschauen oder auch diese Methoden zu entwickeln in der Forschung, um die Verzerrungen oder den Bias aus den Sprachmodellen rauszubekommen. Gerade bei Sprachmodellen wie jetzt auch bei ChatGPT, wo man gar nicht genau weiss, wie, was für Daten verwendet wurden oder wie genau das Training abgelaufen ist, ist es sehr, sehr schwer, da irgendetwas dagegen zu tun.

Anne: Also, es ist ja insgesamt eine wahnsinnige Beschleunigung reingekommen in dieses Thema. Ich sehe noch nicht ganz, so für mich jetzt oder vielleicht auch für viele andere im Alltag, den Nutzen. Also es wirkt natürlich erst mal jetzt so witzig. Ja, man kann jetzt mit dem ChatGPT sprechen und ja, juristische Texte können gesammelt werden, man kann analysiert werden, es kann Zusammenfassungen geben, sie können anonymisiert und damit sicherer gemacht werden. Aber das ist für den normalen Alltag ziemlich weit weg, dass es irgendwie einen Nutzen bringen kann. Die künstliche Intelligenz bleibt ja so ein bisschen ein Buzzword. Die Leute stellen sich dann einen Roboter vor, glaube ich, oder so eine Art künstlichen Menschen. Wo wird das mal hinsteuern? Ja also, wie kriegt man quasi dieses Gleichgewicht hin zwischen Chancen und Risiken?

Mascha: Ja, ich denke, es ist ganz, ganz wichtig, dass wir verstehen, dass die Gesellschaft hier auch eine Mitwirkungspflicht hat, also sozusagen als Öffentlichkeit an diesem Diskurs mitzuwirken. Weil ich denke, es wird auch sehr stark davon abhängen, in welche Richtung wir es sich entwickeln lassen. Also man spricht ja auch beim Begriff künstliche Intelligenz, schon vom Begriff her, von etwas Künstlichem, das aber sehr intelligent ist und stellt sich dann oft diese Hollywood Szenarien von der künstlichen Intelligenz vor. Wo ich und viele andere Forschende aber heutzutage eigentlich denken, dass das gar nicht zielführend ist. Also einerseits, weil wir technisch davon noch ziemlich weit weg sind und andererseits, weil sich gezeigt hat, dass es oft nützlicher ist, dass wir ganz konkrete, spezifische Tools haben oder Instrumente, die dem Menschen eigentlich zuspielen. Deswegen reden wir oft auch von Augmented statt Artificial Intelligence, also erweiterter statt künstlicher Intelligenz. Mit der Idee, dass es Dinge gibt, die eben KIs oder Computer besser können. Eben zum Beispiel, wie Matthias erwähnt hatte, tausende Seiten von Text in kürzester Zeit zu analysieren. Aber andererseits gibt es auch Dinge, die der Mensch einfach weiterhin besser kann. Wie zum Beispiel das Einbeziehen des Gesamtkontexts oder das Reflektieren von diesen Entscheidungen.

Matthias: Was ich vielleicht noch ergänzen kann: Ich finde es auch sehr spannend, diese Textgenerierung. Wir haben ja jetzt mit ChatGPT gesehen, das geht schon relativ gut. Und jetzt wäre es hier spannend, beispielsweise zu sehen, wie uns die künstliche Intelligenz helfen kann, auch Texte zu schreiben, anhand von... Oder komplexere Fragen zu beantworten. Hier wiederum gibt es ja die grosse Angst, oder gerade in der letzten Zeit die Frage, was ist die Rolle der Hochschulen, der Bildung? Wenn quasi immer mehr der Studierenden oder auch Schülerinnen und Schüler zu Hause oder wie auch immer mit diesen Tools ganze Aufsätze, ganze Abschlussarbeiten schreiben können? Mit dem müssen wir jetzt natürlich lernen umzugehen. Es gibt zwar Versuche, dass man das dann identifizieren kann. Zero cheapity heisst das, glaube ich, wo man dann angeblich sehen kann, ob ein Text von der künstlichen Intelligenz generiert wurde. Aber ich glaube, es ist eine Frage der Zeit, bis das nicht mehr einfach zu erkennen ist. Wenn es überhaupt schon erkannt werden kann. Und von da her, ist dann wiederum die nächste Frage, was die Rolle von so einer KI ist. Also ich denke, es ist ein bisschen ähnlich wie vor dreissig, vierzig Jahren, als der Taschenrechner in den Schulen eingeführt wurde. Dann haben sicher auch viele Leute aufgeschrien, dass die Kids dann nicht mehr Bruchrechnen auf Papier können und Addition, Multiplikation muss man jetzt doch immer noch können und so. Wir müssen einfach lernen, mit diesem neuen Instrument umzugehen. Und da finde ich wichtig, eben das, was Mascha gesagt hat, erweiterte Intelligenz als Hilfsmittel anzuerkennen, um mühsame, wiederkehrende Arbeiten zu vereinfachen, damit wir uns faktisch den wichtigeren Dingen im Leben widmen können. Also die KI hilft uns nicht, irgendwelche grossen menschlichen Probleme wie irgendwelche Kriege oder Klimawandel zu lösen. Das müssen wir Menschen tun. Aber sie kann uns helfen, noch besser, basierend auf Daten und Fakten, zu erkennen, was es jetzt zu tun gibt. Wo sollten wir Prioritäten setzen, beispielsweise.

Anne: Ja, und ein Punkt, wo man die KI auch einsetzen möchte, und da widmet ihr euch ja in einer Konferenz am 3. Mai, einer Transformkonferenz, wie kann man die KI in der Verwaltung einsetzen? In der öffentlichen Verwaltung?

Matthias: Genau, das ist die Transformtagung "Künstliche Intelligenz im öffentlichen Sektor". Also wir untersuchen da eigentlich, oder wir besprechen einen ganzen Tag lang, wo sind nochmal die heutigen Möglichkeiten und Grenzen? Wir haben Leute aus einem Start-up, die Deep Judges quasi, die sich eben auch um rechtliche Fragestellungen kümmern. Aber wir haben auch Leute aus der Verwaltung, die zeigen, wo heute schon KI eingesetzt wird in den Prozessen. Und ganz wichtig sind hier auch eben Stimmen wie Mascha, die dann aufzeigen, wo die ethischen Grenzen sind, wo da die Probleme sind. Dieses Thema der Verzerrung, der Diskriminierung. Wir haben eine Juristin, die aufzeigt, was die Rechtsgrundlagen sind, die es braucht, damit überhaupt erst die öffentliche Verwaltung solche Dinge einsetzen kann. Und wir versuchen auch konkrete Beispiele zu zeigen, dass man auch möglichst nicht Angst hat vor so einem diffusen Monstrum, dass das einfach alles kontrolliert. Sondern wir zeigen auf, wo das eben wirklich als Werkzeug angewendet werden kann, um Dinge zu vereinfachen. Wir haben eine Referenz von der Nationalbibliothek. Da sind sehr viele spannende historische Dokumente, Sprachdokumente, vorhanden, die aber eigentlich kaum zugänglich sind, weil sie dort in den Regalen gelagert sind. Und wenn diese Texte, also diese sprachhistorischen Dokumente verwendet, also mit künstlicher Intelligenz aufgearbeitet werden können, dann können sie letztlich auch der Gesellschaft zur Verfügung gestellt werden und einen Nutzen generieren. Und da hilft uns die künstliche Intelligenz.

Anne: Auf was wirst du dich in deinem Vortrag konzentrieren, Mascha?

Mascha: Da werden sicher die Themen auch vorkommen, die wir jetzt hier besprochen haben, also dieses ganze Gefüge zwischen Mensch und KI. Wie sieht die Zusammenarbeit der Zukunft aus? Wie kann die KI den Menschen ergänzen oder bei Aufgaben auch sehr gut unterstützen? Und wo ist die KI weniger geeignet? Und natürlich auch in Hinblick auf diese Gefahr der Diskriminierung. Und trotz allem möchte ich aber zeigen, dass es da natürlich Risiken gibt, aber dass es eben auch wahnsinnig viel Potenzial gibt, um mit diesen Sprachmodellen oder KI Software wirklich auch tolle Sachen machen zu können.

Anne: Also in der öffentlichen Verwaltung ist es ja auch noch mal speziell, weil die wirklich eine grosse Verantwortung gegenüber der Bevölkerung hat. Welche besonderen Knackpunkte siehst du da?

Mascha: Ich denke, gerade in solchen Anwendungsfällen ist die Transparenz, die wir auch schon angesprochen haben, nochmal ganz besonders wichtig. Und zwar einerseits die Transparenz über die Modelle selber, wie die Modelle trainiert wurden, wie man sicherstellt, dass es nicht zu einer Diskriminierung führt. Aber auch Transparenz darüber, dass solche Software überhaupt eingesetzt wird, sodass die Menschen wissen, dass jetzt diese oder jene Entscheidung automatisiert getroffen wird oder durch eine KI unterstützt wird und dass Transparenz darüber herrscht, in welcher Form diese Technologien eingesetzt werden.

Matthias: Wirst du an der Transform auch über die Nachvollziehbarkeit von KI sprechen, wo man quasi verstehen kann, warum bestimmte Ergebnisse rauskommen, so wie sie quasi sichtbar wurden?

Mascha: Die Nachvollziehbarkeit oder eben auch explanable AI genannt, ist ein ganz, ganz wichtiges Thema, weil diese KI Modelle und die Entscheidungen, die die KI Modelle treffen, nicht immer oder in den meisten Fällen nicht sehr gut nachvollziehbar sind, sondern dass wir da eher eine Blackbox haben. Also selbst für technische Spezialistinnen und Spezialisten ist es nicht nachvollziehbar, woher diese Entscheidung kommt. Und das ist ein bisschen so ein Spannungsfeld, das wir da haben zwischen den Methoden, die besonders gut funktionieren, die dann häufig aber besonders wenig nachvollziehbar sind. Und wenn wir natürlich sicherstellen möchten, dass es da keine Verzerrungen gibt, dann sind wir darauf angewiesen, da Methoden zu entwickeln, die auch entsprechend erklärbar und, wir kommen wieder auf das Thema Transparenz zurück, entsprechend transparent sind, wie diese Entscheidung oder Empfehlung zustande gekommen ist.

Anne: Ja, dann können wir uns auf einen wirklich abwechslungsreichen Tag zum Thema KI freuen. Am 3. Mai im Rathaus Bern. Ihr seid beide zu Gast und noch viele weitere Gäste. Alle Infos zu der Konferenz werde ich in die Shownotes stellen. Und leider ist heute unsere Zeit um. Es war wirklich, wirklich sehr interessant und spannend, euch zuzuhören. Und ich glaube, wir haben sehr viel gelernt über das Thema Sprachmodelle, Chatbots. Vielen Dank für das Gespräch.

Anne: In der nächsten Folge spreche ich mit Sabrina Schell darüber, welche Rolle Gefühle am Arbeitsplatz spielen.

Anne: Alle Episoden von “Let’s Talk Business” findet ihr auf Spotify, Apple Podcast und natürlich auf bfh.ch/wirtschaft. Bis zum nächsten Mal.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.