Podcast

LERNLUST #42 // Künstliche Intelligenz im Dialog

In unserer aktuellen Episode des LERNLUST Podcasts spricht Susanne Dube mit ihren Kollegen Axel Lindhorst (tts learning achitects) und Achim Kümmerle (tts digital adoption solutions) über Schritte in eine Corporate Learning Welt mit KI.
24. November 2023
60 min
Susanne Dube, Learning Manager, tts Susanne Dube

Aktuell vergeht kein Tag, an dem es keine neuen Nachrichten zum Thema 'Künstliche Intelligenz (KI)' gibt: Es geht gerade hoch her in der KI-Branche. Und so manch eine Meldung der letzten Wochen und Tage glich einem kleineren Erdbeben. Tatsächlich wurden solche Beben auch der Corporate Learning Branche prophezeit - damals, Ende 2022 - nach dem Launch von OpenAIs ChatGPT.

Aber ‚Hand auf's Herz‘, haben sie selbst auch schon ausprobiert, was KI so alles kann? 
KI ist ein weiter Begriff. Trotzdem ist in vielen Diskussionen im Moment damit lediglich die sogenannte ‚Generative AI (GenAI)‘ gemeint, mit der beispielsweise Texte generiert, Stimmen geklont oder Bilder erstellt werden können. Aus diesen Elementen bestehen klassische Produkte des E-Learning und schnell kann der Eindruck entstehen: Das wird die Lernwelt auf den Kopf stellen.

Ja, es gibt viele technische Möglichkeiten, von denen wir vor einem Jahr kaum zu träumen wagten, aber ist das der richtige Fokus? 
Wenn es ums Lernen geht, gehört für uns nicht die Technik in den Mittelpunkt, sondern der Mensch - oder genauer - die Lernenden. 

  • Welche Tools ermöglichen eine schnellere Bereitstellung von qualitativ gutem Fachwissen im Umfeld von sich schnell wandelnden Prozessen und Systemen?
  • Wie gelingt es im internationalen Kontext, Sprachversionen (Lokalisierungen) schneller verfügbar zu machen?
  • Was braucht es für einen noch nachhaltigeren Kompetenzaufbau bei den Lernenden – auch mit ganz klassischen Trainingskonzepten?
  • Was ändert sich im Lernen - was bleibt aber auch gleich?
  • Welche Kompetenzen benötigen Lernende künftig, wenn KI in unser aller Leben noch deutlich präsenter sein wird?

Diesen und anderen Fragestellungen haben wir uns in den letzten Monaten bei tts gewidmet: Auf einige davon haben unsere Kolleg:innen bereits Antworten gefunden und diese in Angeboten oder ersten Piloten für Kund:innen umgesetzt. Bei anderen Fragen forschen wir weiter.

Corporate Learning hat sich in den letzten Jahren stark verändert und damit geschafft, dass Lernen näher an die Lernenden kam und kommt. Doch Technik allein macht Lernen nicht einfacher oder erfolgreicher. Wir bei tts sind davon überzeugt, dass Lernangebote besser werden, wenn wir sie konsequent aus der Sicht und vom Bedarf der Lernenden her denken – ganz gleich, ob mit oder ohne KI.

Transkript

[Intro]
LernLust, der Podcast für alles rund ums Thema Corporate Learning. Wir sind Susanne Dube und Claudia Schütze und wir sind Learning Consultants bei der tts. Schön, dass du heute dabei bist.

[Susanne Dube]
Meine Hoffnung liegt darin, dass wir Menschen schlau sind.

[Achim Kümmerle]
Oms, der sich mit KI und AI auseinandergesetzt hat, weiß, dass da letztendlich die Musik spielt.

[Axel Lindhorst]
Wir sehen die Möglichkeiten, wir sehen das Potenzial, aber wir sehen auch die Grenzen. Jetzt muss ich aufpassen, dass ich nicht hier gedisst werde.

[Susanne Dube]
Auch wenn wir beim Titel für diesen Podcast tatsächlich auf die Hilfe von ChatGPT zurückgegriffen haben, beim Podcasten sind wir doch noch recht handwerklich unterwegs. Vielleicht wird das im nächsten Jahr schon etwas anders. Mit Achim Kümmerle aus dem Produktmanagement für die tts Performance Suite und mit meinem lieben Kollegen und Learning Architekt Axel Lindhorst möchte ich mich endlich mal wieder darüber unterhalten, wie ein klassischer Anbieter im Corporate Learning sich mit dem Thema KI beschäftigt.

Schließlich wurde uns von manchen Auguren schon ein Ende prophezeit. Ein bisschen Spoilern vorweg, ein Ende sehe ich nicht, eher eine Momentaufnahme. Viel Spaß beim Reinhören.

Herzlich willkommen lieber Achim und herzlich willkommen lieber Axel zu unserem zweiten Aufschlag zum Thema Künstliche Intelligenz. Im ersten Podcast dazu hatten wir ja damals mit Johannes Starke und dir, Axel, gesprochen. Jetzt haben wir uns Achim dazu geholt.

Achim aus dem Softwarebereich, der Produktmanager, soll uns hier ein bisschen Sichtweise aus einer anderen Abteilung oder aus einem anderen Bereich von tts mit reinbringen. Leider fehlt uns der Dritte im Bunde, der liebe Michael. Wir wünschen ihm gute Besserung.

Er hätte HR Consulting für uns vertreten, aber wir sind uns ganz, ganz sicher, dass es einen nächsten Aufschlag geben wird mit uns. Achim, sag doch mal, warum hätte ich euch drei denn wählen sollen für einen gemeinsamen Podcast? Welche Rolle habt ihr drei denn?

[Achim Kümmerle]
Drei? Ich bin jetzt nur einer. Ich kann nur für mich sprechen.

Wir im Softwarebereich haben uns relativ frühzeitig, zumindest mit dem Hype-Thema Ende letzten Jahres, angefangen auseinanderzusetzen. Speziell der Hype mit Gen AI, ganz konkret mit der GPT, wo es ja um Inhaltserstellung, Content Creation geht, auseinandergesetzt und auch geguckt, wo wir das sinnvoll nutzen können, um das in unser Produkt zu integrieren und unseren Kunden das ermöglichen, schneller und einfacher Inhalte zu erstellen, um Wissen innerhalb von Unternehmen teilen zu können.

[Susanne Dube]
Das klingt total spannend. Ja, warum ihr drei? Also du hast jetzt deinen Bereich aus der Software erklärt, aber ihr drei seid ja auch die Vertreter, die miteinander im Bereich tts zum Thema KI sprechen.

Und wir merken aber gerade schon, es sind drei Bereiche, die aus sehr, sehr verschiedenen Blickpunkten drauf gucken. Axel, du könntest es doch mal für den Bereich Learning zusammenfassen. Wie blicken wir denn auf das Thema?

Oder warum bist du hier? Genau.

[Axel Lindhorst]
Wir waren natürlich auch schon sehr früh dabei, die ganzen AI-Tools zu untersuchen und quasi mit dem Hype zu surfen und die generativen Tools, beginnend mit Chat-GPT und dann vor allen Dingen auch mit Bildgenerierung und weitergehend mit Audio- und Videogenerierung im Bereich zu untersuchen, zu evaluieren. Wir waren ziemlich schnell dabei mit einer internen Strategiegruppe, wo wir intern versucht haben, unseren Umgang mit künstlicher Intelligenz und wie sie uns helfen kann auf dem Weg zu höherer Effizienz oder zu Produkten und Services, die wir anbieten können, zu unterstützen. Und haben da entsprechend auch vor der Geschäftsleitung vom Top-Management präsentiert und unsere Vorstellungen abgestimmt und in unsere Strategie integriert.

Und seitdem schauen wir, was es noch gibt neben der generativen künstlichen Intelligenz in Richtung adaptives Lernen. Wir sind da aber jetzt auch noch nicht so besonders weit, aber wir strecken unsere Fühler halt in verschiedene Richtungen aus und schauen, was die Konsequenzen sind, intern und extern.

[Susanne Dube]
Was ich ja immer finde, ist, wir machen ja immer so ein bisschen ein Understatement. Ich glaube, in beiden Bereichen, dass wir so sagen, ja, wir strecken die Fühler aus, wir probieren aus. Wir gucken da so ein bisschen, was ich immer sehr spannend finde, vielleicht aus dem Bereich Learning zu sprechen ist, dass ich mich mit Kollegen unterhalten habe, die natürlich gerade die Grafikkollegen nutzen, die Möglichkeiten von KI, die in Adobe oder anderen Tools schon drinstecken, um da bessere Grafiken zu machen, manchmal auch schneller zum Ziel zu kommen.

Also das weiß ich von Kollegen. Ich weiß von Kollegen, die tatsächlich in Abstimmung mit dem Kunden da auch schon Inhalte aus JGPT genutzt haben, beziehungsweise wir haben da ja auch schon das eine oder andere Video erstellt als Piloten, wo wir dann vielleicht noch mal ein bisschen drauf gucken können im Thema. Was haben wir denn vielleicht schon mal Kunden angeboten?

Was haben wir schon gemacht? Achim, da habt ihr bestimmt auch schon irgendwelche Punkte, die du vielleicht mit reinbringen kannst.

[Achim Kümmerle]
Nicht direkt. Wir haben ja immer so ein bisschen, vielleicht so ein kleiner Unterschied zu euch speziell. Bei uns ist das ja immer mit einem gewissen Zeitverzug versehen, bevor wir mit Kunden tatsächlich konkret Sachen ausprobieren können.

Liegt daran, dass wir jetzt konkret entwickeln eine Software, unsere Digital Adoption Solution, die wir Kunden zur Verfügung stellen, um sie zu befähigen, quasi Inhalte zu erstellen und zu teilen. Das heißt, bei uns ist es unter Umständen eben erstmal ein halbes Jahr Zeitverzug, bevor ein Kunde überhaupt die Chance hat, irgendwelche neuen Integrationen, neue Funktionen in der Software tatsächlich auszuprobieren. Das heißt, wir sind da immer so ein Stück weit, müssen ein bisschen in Vorleistungen gehen, bevor wir dann Feedback einsammeln können.

Und speziell bei dem ganzen Thema KI haben wir natürlich einen eher organisatorischen Zeitverzug, weil wir die Funktion ermöglichen und der Kunde sie tatsächlich in der Software theoretisch hätte, hat er noch lange keine interne Freigabe. Diese ganzen klassischen Legal-IT-Security-Compliance-Themen, die muss ein Kunde dann eben erstmal durch, bevor er die Funktion dann auch tatsächlich aktivieren und nutzen kann. Das heißt, wir haben also wirklich sehr langen Zeitverzug, bevor wir dann wirklich konkretes Feedback dazu kriegen können aus der echten Nutzung.

[Susanne Dube]
Okay, aber ich habe schon gehört, dass ihr aktuell auch Webinare dazu hattet, zum neuen Release von der Software, wo ihr einige Sachen schon zeigen konntet, die ich ja extrem spannend finde, weil sie sich ja auch mit der Produktion von Konten beschäftigen, so wie ich sie auch schon gesehen habe. Also was einfach E-Learning-Content leichter erstellen lässt. Da habt ihr die ersten Sachen jetzt schon vorgestellt.

[Achim Kümmerle]
Genau. Insofern ist das ja eher so auch ein Dank an euch, an den Learning-Bereich. Weil wir natürlich irgendwie aus dem konkreten KI-Projekt, was ihr hattet, ja durchaus den Need und Bedarf schon mal irgendwie als Bestätigung hatten für die entsprechende Entwicklung.

Also ihr hattet ja ein konkretes Kundenprojekt, wo ein Kunde ja irgendwas ausprobiert hat mit KI. Genau.

[Susanne Dube]
Also es ging darum, die Lokalisierung tatsächlich zu vereinfachen. Und wenn sich jemand den ersten KI-Podcast von uns angehört hat, dann hat er mitbekommen, dass das eigentlich eine Idee war, die ich damals im Januar schon gesponnen habe. Nämlich tatsächlich zu sagen, ich nehme mir Fachexperten oder eine Person und packe nur ein Bild von dieser Person in eine Software und lege einen Text dazu und lasse das dann, diesen Text, vertonen von einer KI, vielleicht noch mit der Stimme von der Person dazu und übersetze das dann noch in verschiedene Sprachen.

Und wir haben das mit verschiedenen Tools jetzt umgesetzt gehabt. Das war, die nenne ich jetzt einfach mal, das ist eine Augenblickaufnahme. Das könnten im nächsten Monat andere Tools sein.

Also wir haben tatsächlich eine Kollegin gehabt, die hat ein Foto zur Verfügung gestellt. Sie hat ihre Stimme für Eleven Labs zur Verfügung gestellt, die wir dann dort geklont haben. Wir haben einen Text mit Word übersetzen lassen aus dem Englischen in verschiedene andere Sprachen.

Wir haben das dann reviewen lassen von Muttersprachlern und haben dann daraus diese Übersetzung in Eleven Labs erstellt, auch als Sound. Und haben dann Sound und Bild zusammengebracht mit einer Software, die heißt DID und hatten dann wunderbare kleine Lernvideos, wo ein Mensch, ein KI-Mensch in dem Fall, in verschiedenen Sprachen, die die Kollegin nicht gesprochen hat eigentlich, ein Fachinhalt vom Kunden erklärt hat. Das Ganze haben wir dann mit einer PowerPoint in Camtasia einfach zusammengebracht.

Jetzt habe ich alle Tools einmal genannt. Es könnten andere sein, die sind ersetzbar. Das ist das Beispiel, auf das Achim sich gerade bezogen hat, was wir quasi für den Kunden zurechtgeschnitzt haben, um einfach mal auszuprobieren, wie lange dauert so ein Prozess?

Was sind vielleicht die Vereinfachungen? Und vielleicht auch, was sind Sachen, auf die man trotzdem achten muss dabei? Und da können wir gleich noch ein bisschen genauer darauf eingehen.

Aber Achim, wir waren erst bei dir und du hast gesagt, du hast dich von uns inspirieren lassen. Das finde ich ja sehr schön.

[Achim Kümmerle]
Also inspirieren lassen beziehungsweise in dem Fall war es mehr oder weniger so ein Stück weit validieren, weil das, was ihr gemacht habt, verschiedene Tools nutzen, um dann eben zu dem Ergebnis zu kommen, dass du dann tatsächlich einen entsprechenden KI-Avatar hast, der aussieht wie von Ihrem Mitarbeiter. In dem Fall war es ein Mitarbeiter von uns oder aber einen virtuellen Mitarbeiter oder tatsächlich gegebenenfalls vielleicht auch tatsächlich einen ganz konkreten Fachexperten aus dem jeweiligen Unternehmen. Man sagt, ich verleihe dem ein Gesicht, der hat eine gewisse Reputation.

Das hilft ja auch immer so ein bisschen, was die Akzeptanz von dem ganzen Thema anbelangt, wenn das jetzt jemand intern erzählt und nicht irgendwie irgendwo als Text irgendwo steht oder irgendeine fremde Person. Das, was ihr also gemacht habt mit den verschiedenen Tools, haben wir so integriert, dass das tatsächlich, wenn das Unternehmen das so einsetzen will, das komplett innerhalb unserer Software geht, ohne dass ich irgendwo mir verschiedene Accounts anlegen muss. Ich kann das alles in einem Rutsch machen.

Also von der Lokalisierung über KI bis hin zu der Stimmklonerei und dem Erstellen von solchen KI-Avataren innerhalb unserer Software. Wie gesagt, wir machen das nicht selber, sondern wir haben die externen Tools integriert und zusammengebracht in quasi einem relativ einfachen Template, wo man den Text eintippt, einfach nur noch den Generate-Button drückt und dann läuft der Rest quasi automatisch und bringt die verschiedenen KI-Systeme zusammen. Inklusive natürlich dem ganzen Thema Prompts, der sich mit KI so ein bisschen auseinandergesetzt hat, weiß, dass da eigentlich irgendwie letzten Endes die Musik spielt.

Je einfacher die Anfrage, desto unsicherer oder unklarer ist das Ergebnis. Die Ergebnisse werden eklatant viel besser, wenn man da ein bisschen Hirnschmalz reinsteckt in das Prompting. Wie stelle ich diese Anfrage?

Was packe ich an Informationen dazu? Was ist das für ein Setting, in dem ich gerne jetzt den Inhalt erstellt haben möchte? Was ist das für eine Zielgruppe?

Sprachstile zum Beispiel geht es eher jetzt im Deutschen konkret eher um was Formelles, wo Leute mit Sie angesprochen werden. Viele Unternehmen sind auf einem Du. Dann kann ich mir einen Prompt auch mitgeben, dass ich gerne eine informelle Sprachstile nutzen möchte.

Dann spricht das Ding immer eher von Du und liebe Kollegen und nicht Mitarbeiter und Mitarbeiterinnen. Ich kann bis hin zu einer einfachen Sprache, wenn ich sage, das ist irgendwie tatsächlich, die Zielgruppe ist eben jetzt nicht, das sind nicht meine Führungskräfte oder dergleichen, sondern das ist irgendein Mitarbeiter am Band und ich möchte eben wirklich versuchen, die Sachen in kurzen, einfach verständlichen Sätzen wiederzugeben. Kann man sowas auch alles mitgeben?

Das heißt, das haben wir eben in der Software so gebaut, dass da relativ elaborierte und ausgefeilte Prompts im Hintergrund stehen und ich mich als Content-Ersteller gar nicht damit auseinandersetzen muss, sondern einfach entsprechende Optionen auswähle und das Prompt, das Komplexe im Hintergrund erstellt wird.

[Susanne Dube]
Das finde ich persönlich eine sehr, sehr spannende und sehr schöne Funktion. Bringt mich so auf verschiedene andere Gedanken, bringt mich aber auch darauf, dass, ich weiß nicht, Axel, erinnerst du dich daran? Johannes hat damals gesagt, das ist für ihn eine Dystopie.

Das ist etwas, was er sich nicht vorstellen kann. Warum sprechen die Menschen denn nicht selbst? Warum machen sie da ein Foto von sich hin?

Das haben wir aber im anderen Podcast diskutiert. Das möchte ich hier gar nicht diskutieren. Das ist eher eine Einladung, sich mal anzuhören, welche Zweifel man daran haben kann.

[Achim Kümmerle]
Weil ich da tatsächlich gerne reingrätschen möchte. Jeder meines Erachtens, der das mal probiert hat, also ich selber habe das probiert, kenne Kollegen von mir, die es probiert haben, einfach nur mal drei Minuten Text, den man sich ausgedacht hat, hat man alles runtergeschrieben und den mal fließend in so einem Video aufzunehmen. Das geht ratzfatz zwei, drei Stunden, weil man sich dann doch verhaspelt.

Guckt nicht wirklich in die Kamera, wenn man den Text abliest, lauter Kleinkramsachen. Natürlich kann man mit einem professionellen Teleprompter und Coda, das geht alles. Wenn man das aber nicht zur Verfügung hat, dann ist so ein drei Minuten Video produziert, geht ratzfatz drei Stunden weit rauf, bis das dann sitzt.

Vor allem, wenn man eben vielleicht nicht wie Johannes da drin geübt ist, solche Videos aufzunehmen und klar und deutlich zu sprechen. So kann der auch irgendwie jetzt ohne zu spoilern, also unser Softwarechef Rolf Zajungs, der hat von seinem Naturell, der spricht immer sehr, sehr schnell, verhaspelt sich dabei. Das heißt, selbst wenn das dann irgendwie wörtlich einmal passt, sitzt das Ding, kann man so nicht verwenden.

Und da ist dann tatsächlich das extrem charmant, einfach den Text irgendwie zu tippen und das Ding spricht das halt, was man da reingeschrieben hat, ohne zu zucken, guckt brav in die Kamera und das Ergebnis ist tadellos und das ist wirklich innerhalb von Echtzeit mehr oder weniger in drei Minuten ist das Ding im Kasten.

[Susanne Dube]
Das ist tatsächlich etwas sehr Atzel.

[Axel Lindhorst]
Ich glaube, das ist ein Standard. Was auch ein Standard ist, ist Übersetzung natürlich mit künstlicher Intelligenz. Das ist ja schon länger, eigentlich vor dem Hype war das ja schon üblich.

Und synthetische, also KI-gestützte Stimmen anzubieten.

[Susanne Dube]
Genau, nicht immer Cloning, sondern einfach auch nur die.

[Axel Lindhorst]
Nicht nur Cloning, genau. Kann auch Cloning sein, je nachdem mit wem man zusammenarbeitet, aber eben KI-gestützte Stimmen zu nutzen. Und dann gibt es natürlich noch sowas wie Bildgenerierung, da wird es dann schon ein bisschen dünner, denn dann kommen wir in die Richtung der Effekte, die wir im Video auch haben.

Stichwort an Kenny Valley, für die, die das nicht kennen, den Begriff. Das unangenehme Gefühl, dass das irgendwas künstlich Generiertes ist und eben kein echtes Video und das fühlt sich oder sieht sich komisch an.

[Susanne Dube]
Das hatte ich tatsächlich, also wenn ich mal wieder was Privates reinschmeißen darf. Ich habe einen Weihnachtskalender für die Omis gebaut und habe ein Foto von meiner Schwester bekommen und habe mich bitterböse beschwert, weil meine liebe Nichte total entstellt ist. Und ich habe gesagt, kannst du nicht den Filter rausnehmen?

Sie sagt, nein, ich habe nur den Selfie-Modus eingestellt. Ich finde das Thema an Kenny Valley ist etwas, was bei diesen ganzen Filtern, die die Handys mittlerweile zum Teil ja automatisch machen, wenn man nicht aufpasst, ganz, ganz furchtbar. Also das ist etwas, was ich tatsächlich schwierig finde, dieses Aufhübschen von Menschen.

Das ist jetzt was anderes, aber es ist ein Thema, was sicherlich bei zu perfekten Grafiken bei uns dann auch reinspielen kann oder bei Themen, die dann nicht wirklich zusammenpassen. Wobei ich just mit einem Kollegen auch gesprochen habe, der gesagt hat, mir hat ein Stück vom Bild gefehlt. Das habe ich dann einfach mit einer KI herangebastelt.

Da fehlt ein Stück Hintergrund. Solche Sachen machen natürlich das Leben von Content-Erstellern oder in dem Fall von Grafikern auch sehr, sehr viel einfacher. Und das ist vielleicht etwas, wo wir sagen können, da nutzen wir es tatsächlich schon.

Was für mich dann natürlich sehr, sehr spannend ist, wenn wir sagen, wir nutzen es. Und auch bei dem, was du, Achim, gerade beschrieben hast, was wir mit der Software anbieten wollen, ist es vielleicht auch spannend, mal sich darüber zu unterhalten, wie stehen wir eigentlich als Bereiche zum Thema KI generell? Sind wir jetzt welche, die wirklich wild einfach drauf losprobieren und wahnsinnig innovativ darin sind?

Oder sind wir eher die Langsamen, dass wir jetzt erst darüber sprechen? Wo würden wir uns vielleicht einsortieren? Was sind denn so unsere Themen dazu?

Wie stehen wir eigentlich generell zu dem Thema?

[Achim Kümmerle]
Gut, dann fange ich an. Ich persönlich bin grundlegend erstmal Technik begeistert und deshalb eher ein Stück weit euphorisch, weil ich das erstmal eine großartige Chance finde, was da alles tatsächlich geht. Das sind ja trotzdem immer noch Anfänge.

Man sieht ja auch, wie rasend schnell die Entwicklung tatsächlich da gerade vonstatten geht. Da geht es ja keine vier Wochen ins Land, kommt entweder ein neues Modell oder das Ding kann noch mehr, kann dann irgendwie Bilder und schieß mich tot. Da ist noch sehr viel Luft und sehr viel Verbesserungspotenzial da.

Und insofern Stand heute bin ich noch ein bisschen skeptisch, wie gut auch dieses, was Axel angesprochen hat, dieses Gefühl, dass das so ein bisschen spooky ist, wenn man solche Videos produziert. Das ist Stand heute sogar schon besser, wenn ich eben nicht jetzt einfach ein Frontalfoto-Porträt habe und das Ding muss dann in irgendeiner Weise KI berechnen, irgendwelche leicht schrägen oder meine Zähne. In der Regel mache ich ja ein Foto ohne offenen Mund.

Das heißt, das Ding kann gar nicht wissen, ob ich jetzt schiefe und krumme Zähne habe oder gelbe oder grüne oder was auch immer. Das muss irgendwas reinrechnen. Wenn ich aber dem Ding tatsächlich, so wie das ja möglich ist, solche High-Quality-Avatare erstelle von mir, indem ich eben tatsächlich mehrere Fotos in einem Greenroom aufnehme, mit geöffnetem Mund, geschlossenem Mund, mit Zähnen, ohne Zähne, dann sind die Videos oder ist das Ergebnis, was heute kommt, als Ergebnis schon unfassbar viel besser.

Das wirkt dann gar nicht mehr spooky. Das ist natürlich, wenn das Ding mir irgendwelche KI-Zähne in den Mund zeichnet, dann sind das nicht meine Zähne und schon sehe ich ein bisschen anders aus und es wirkt dann eben so ein bisschen spooky. Um bei dem Begriff zu bleiben, ich habe da keinen passenderen, besseren Aura.

Da geht schon mehr, aber dann braucht das Ding mehr Input. Das Erstellen ist heutzutage noch ein Stück weit aufwendiger, aber auch das wird einfacher gehen.

[Axel Lindhorst]
Wir sehen die Möglichkeiten, wir sehen das Potenzial, aber wir sehen auch die Grenzen. Ich bin natürlich auch eher interessiert, euphorisch, weiß ich nicht, aber technikaffin. Trotzdem habe ich, glaube ich, momentan eher so eine pragmatische Sicht auf die Dinge, wie ich das vorhin so ein bisschen genannt habe.

Ich sehe die Erhöhung der Effizienz im Produktionsprozess, das ist möglich, Textgenerierung, Bildgenerierung, aber hauptsächlich eben in Bezug auf Lücken zu füllen, die uns als Menschen, die Technologie anwenden, schwerfallen. Zum Beispiel bei dieser Bildbearbeitung, die du eben gesagt hast, da ist irgendwas auf dem Bild drauf, das soll weg. Das kann man eben mit Hilfe von künstlicher Intelligenz jetzt noch deutlich einfacher machen als früher, wo man mühsam mit dem Stempel bei Photoshop oder so irgendwas gemacht hat.

Oder eben vor allem auch bei Texten, wo wir Texte, die uns vorliegen, in verschiedene Formen bringen können, wo wir Fragen generieren können oder sowas, aber wo wir nicht unbedingt diese Tools zur Textproduktion von Anfang an, für die Recherche oder für die Bildgenerierung von Anfang an nutzen, es sei denn, wir geben uns sehr, sehr viel Mühe beim Prompting, was natürlich wiederum eine menschliche Tätigkeit ist.

[Susanne Dube]
Ich finde das einen spannenden Punkt, den du jetzt als letztes auch mit angesprochen hast, weil das, glaube ich, so eine Grundhaltung auch mitgibt, die ich bei uns erlebe. Also ich glaube, wir probieren schon gerne auch Sachen aus und wir wollen da auch die Schritte vorwärts gehen, insofern wir sie sinnvoll finden. Vielleicht hat man es vorhin auch schon ein bisschen gemerkt, dass wir es ja in der Regel mit den Kunden zusammen tun.

Wir gucken aber schon auch ein bisschen selber, also einiges probieren wir intern auch aus. Und was ich sehr spannend fand, gerade als ich auch dieses Testbeispiel mit dem Kunden erstellt habe, war nicht mal unbedingt nur, was die Technik kann, weil da bin ich bei dir, Achim, der ja auch sagt, das entwickelt sich so schnell weiter, die Qualität ist dann schon so schnell gut. Da habe ich keinen Zweifel, dass es da Tools geben wird, die das wirklich gut machen können.

Was ich für mich wichtig fand, war die Erkenntnis, ich habe das ja gebaut, dieses Video, weil wir die Lokalisierung vereinfachen wollten. Und ich habe dann wirklich innerhalb von einer Minute mit Word einen Text aus dem Englischen ins Türkische und ins Spanische übersetzt gehabt. Nun muss man wissen, dass ich weder Türkisch noch Spanisch gelernt habe.

Das sind zwei Sprachen, in denen ich nicht mächtig bin. Und ich kann gar nicht die Qualität prüfen, die mir Word daraus gibt. Das heißt, das war für mich ein Punkt, wo ich gedacht habe, ah, dann muss ich mir Menschen suchen, die das können, weil da ja auch Fachbegriffe drin waren, die vielleicht nicht irgendwo Google alles kann und auch vielleicht Diebel nicht kennt.

Genauso ist es dann aber auch beim Sound gewesen, der gesprochen worden ist. Ich fand zum Beispiel, ich weiß gar nicht, Axel, das war von dir. Du hattest einen Sound auf Spanisch von, nennen wir sie Lisa, unsere liebe Kollegin, einstellen lassen und hast dann gesagt, ah, an der Stelle klang das aber sehr Englisch.

Und da müssen wir nochmal ein bisschen nachschärfen. Das heißt, diese menschliche Leistung hat es schon noch gebraucht. Und aus diesem Grund sehe ich so manche Sachen.

Just heute Morgen habe ich von einer Kollegin einen Link bekommen von Adobe. Ein Tool, was all diese Sachen in einem Schritt macht, also was eine Lokalisierung in einem Schritt machen kann. Ich habe einen englischen Text, suche mir eine neue Sprache aus und plötzlich kommt das Video von der Person in der anderen Sprache.

Und die haben dort in diesem, das verlinke ich dann auch, das finde ich extrem spannend für die Show Notes, die haben ganze Filmszenen reingenommen. Nur ist es da so gewesen, dass ich die deutsche Übersetzung nicht verstanden habe. Und da glaube ich, dass ich dann einer KI nicht vertrauen kann, wenn sie es in einem Schritt macht, sondern das war ein Learning für mich, wo ich sage, wenn ich was Hochqualitatives machen möchte, dann muss ich Review-Schleifen drin haben und diese Möglichkeiten muss mir dann die KI bieten.

Das heißt, ich habe mich in meiner Haltung ja auch eher, und das haben mir manche Kollegen vorgeworfen, ich habe mich mit den rechtlichen Sachen auseinandergesetzt, weil die Kollegin musste mir bestätigen, also musste nicht, hat mir bestätigt, weil wir auch gut zusammenarbeiten, dass ich ihr Gesicht und ihre Stimme überhaupt verwenden darf und eigentlich auch nur für dieses Projekt und für alle anderen Projekte, wenn ich es da nochmal verwenden will, muss ich sie fragen, weil das hat was mit Bildrechten zu tun, das hat was mit Persönlichkeitsrechten zu tun, sich mit diesen Fragen auch auseinanderzusetzen. Das fand ich total spannend am Thema KI und gleichzeitig auch das Thema, welche Kompetenzen brauchen wir als Menschen, die mit KI arbeiten damit und das ist das, Axel, um den Bogen nochmal zu dir zu schlagen, dass ich halt einen Text, der aus einem Chat-GPT kommt, natürlich nicht einfach verwende, weil ich ein kritisch denkender Mensch bin, weil ich nicht alles, was ich im Internet lese, einfach so nutzen würde und weil Chat-GPT, und das wissen wir mittlerweile ja, keine Wissensdatenbank ist, sondern einfach nur logische Texte hintereinander packt, da können sich dann Fehler reinschleichen, die einfach fachlich falsch sind.

Also dieses kritische damit Arbeiten, das finde ich ist etwas, was uns auch auszeichnet, dieses nicht blinde Vertrauen, sondern ausprobieren, gucken, was ist sinnvoll, das habe ich auch bei dir, Achim, rausgehört und dann einfach machen.

[Achim Kümmerle]
Ich finde das ganz lustig, das sind ja sogar, ich weiß nicht, ob ihr das zufällig kennt, Teams nutzt ja auch alle, da gibt es ja immer irgendwie in dieser Statusanzeige die Informationen, ob jemand gerade verfügbar ist oder präsentiert oder im Call ist, KI und ungefiltert direkt bis zum Ende durch, da steht im Englischen bei mir immer irgendwie free until, was auch immer, 3 Uhr. Die KI-Übersetzung lautet, ist gerade in der Präsentation und kostenlos bis 1.30 Uhr. Der Kollege ist natürlich nicht kostenlos, sondern der ist eigentlich frei bis 3 Uhr oder so, aber die Übersetzung sagt halt, free ist kostenlos, also insofern zack bumm.

Da ist was schief gegangen, genau.

[Susanne Dube]
Ja, aber das gibt es ja ganz oft, ich habe auf dem Handy ganz oft, dass wenn man auf Webseiten drauf geht und Google das automatisch übersetzt, steht nicht Menü, sondern Speisekarte.

[Achim Kümmerle]
Klar, aber das ist ne, da hat offensichtlich auch jemand vermutlich das Deutschen nicht mächtig, kann das gar nicht kontrollieren, deswegen steht da halt kostenlos, hat keiner irgendwie nochmal drauf geguckt und KI sagt, das ist ganz einfache Übersetzung.

[Axel Lindhorst]
Ich erinnere mich an eine Tabelle von der Europameisterschaft, wo die Originalsprachen der Länder, die dort mitgespielt haben, in der Tabelle umgesetzt wurden, dann stand da Portugal, Spain, Turkey im Original und dann stand Portugal, Spanien, Truthahn.

[Susanne Dube]
Oh, sehr gemein.

[Axel Lindhorst]
Aber bei der synthetischen Stimme ist es halt so, bei diesem spanischen Beispiel, es kommen halt in unserer Fachsprache ständig englische Begriffe, Business Development, Success Factors, tts, Performance Suite und dann muss ja die KI hinter der synthetischen Stimme erkennen, das war jetzt ein englischer Begriff und das Wort, was danach kommt, ist aber wieder spanisch. Und wenn das dann zweifelhaft ist oder in beiden Sprachen, weil es Wörter gibt, die gleich klingen, gleich aussehen, dann wird es kompliziert. Und das ist hier in diesem Fall passiert, den wir dort hatten und ja, menschlicher Auge muss dann da nochmal und Ohr muss da nochmal drauf.

[Achim Kümmerle]
Das klassische Problem ist ja immer, dass so eine KI in der Regel den Kontext nicht kennt. In deinem Beispiel war das ja, okay, es hat den Kontext, es geht jetzt um Länder, sondern es übersetzt halt in Anführungsstrichen die Begriffe und der Kontext ist der KI in dem Fall nicht klar oder nicht bewusst.

[Susanne Dube]
Ja, das ist halt dann diese Leistung, wo man sagt, entweder braucht es dann KI-Systeme, die in diesem Kontext drin sind, die das kennen. Das macht dann das Prompting aufwendiger oder das braucht Datenbanken, die sich genau nur in diesem Kontext bewegen, wenn wir über JGPT oder solche Sachen sprechen.

[Achim Kümmerle]
Das ist ja generell, finde ich, ein ganz schönes Thema, wo man das ja so ein Stück weit sieht. Es reden ja immer alle von, also das I ist ja immer die Intelligenz. Letzten Endes ist das ja aber, jetzt muss ich aufpassen, dass ich nicht hier irgendwie gedisst werde.

Das ist nicht intelligent. Da ist keinerlei wirkliche Intelligenz dahinter. Das sind Wahrscheinlichkeiten.

Vielleicht darf das noch so als kleinen Input. Wir haben in unserem Softwarebereich tatsächlich initiiert von unserem Geschäftsführer quasi wirklich jeder einzelne Mitarbeiter. Die Aufgabe bekommen sich explizit und zwar ungerichtet, ohne Vorgaben, was sich mit dem Thema KI generell einmal auseinanderzusetzen, um so ein bisschen Verständnis dafür zu schaffen.

Wenn man so will, Grundlagenforschung, Grundverständnis, wie tickt so ein Ding, was ist das eigentlich? Was heißt Gen-AI? Bei uns war das Thema Gen-AI nicht ganz allgemein.

Wenn man sich damit mal auseinandersetzt, ist das eben, um das ganz plump darzustellen, es wird immer nur das nächste Wort in einem Satz mit der höchsten Wahrscheinlichkeit ausgegeben. Das ist jetzt nicht unbedingt das, was ich als intelligent bezeichnen würde. Es ist beeindruckend, was da rauskommt.

[Susanne Dube]
Faszinierend, wie unsere Sprache so funktionieren kann.

[Achim Kümmerle]
Absolut. Da gibt es sicherlich natürlich, aber es ist trotzdem einfach nur der Begriff. Es gibt dann auch Iterationen.

Ist mir schon klar, dass es ganz so plump ist es jetzt nicht. Also es wird dann irgendwie auch immer noch mal weiter geguckt, wie dann der Satz weitergehen könnte. Und wenn das dann nicht sinnvoll weitergeht, geht es wieder einen Schritt zurück.

Dann nimmt man vielleicht das zweitwahrscheinlichste Wort und dann kann man das verbessern. Und das kann man auch quasi entsprechend in den verschiedenen KI-Systemen kann man das auch einstellen. Wie stark diese Iteration und wie viele Schleifen man da versucht zu evaluieren, was natürlich immer eine riesen Zeit- und Rechenkapazität im Hintergrund bedarf.

Aber das kann man optimieren. Trotzdem, es bleibt dabei, es geht wirklich plump um Wahrscheinlichkeit.

[Susanne Dube]
Und was ich da so faszinierend daran finde, ist, das System funktioniert so. Sehr spannend finde ich, was wir Menschen daraus machen und wie wir Menschen damit umgehen. Weil ich merke, wie es mir dann selbst passiert, dass wenn ich jetzt eine Software wie ChatGPT oder auch WolframAlpha oder was es da noch sonst gibt ausprobiere, stelle ich ganz oft Wissensfragen.

Und das ist nicht der Fehler von der KI, dass sie mir eine falsche Antwort gibt, sondern warum stelle ich diesem System eine Wissensfrage, wenn ich doch weiß, dass es so funktioniert. Also WolframAlpha nicht, aber ChatGPT, wie du es gerade beschrieben hast.

[Axel Lindhorst]
Das meinte ich vorhin, als ich gesagt habe, wir benutzen das nicht für Recherche.

[Susanne Dube]
Genau.

[Axel Lindhorst]
Nicht für initiale Recherche.

[Susanne Dube]
Es gibt aber Menschen, die tun das. Das Beispiel bringe ich ja schon gar nicht mehr mit dem Jungen, der seine Mathearbeit damit schreiben wollte und böse gescheitert ist.

[Axel Lindhorst]
Nicht um korrekte Antworten zu bekommen.

[Susanne Dube]
Ganz genau. Also das ist aber tatsächlich etwas, wo ich glaube, dass das Kompetenzen sind, die wir als Menschen entwickeln müssen. Und es gibt ja mittlerweile auch Kompetenzmodelle, die sich genau damit auseinandersetzen.

Also welche Kompetenzen müssen wir mit Menschen aufbauen, um mit KI zu arbeiten. Und vor dem Hintergrund mache ich jetzt mal ein bisschen Exkurs in das nochmal, was wir im Learning-Bereich gemacht haben. Axel, korrigiere mich, wenn ich irgendwas falsch sage oder irgendwas vergesse.

Wir haben ein Hackathon mit unseren Kollegen durchgeführt, um zu sagen, was könnten denn Themen sein oder Produkte sein, die wir als Learning-Kollegen im Bereich KI nutzen können, beziehungsweise wie wir die Kunden unterstützen können. Und sehr, sehr spannend fand ich dann immer diesen lehrreichen Ansatz von uns, zu sagen, ja, wir müssen mal gucken, dass wir die Kompetenzen bei den Menschen da aufbauen, entweder über Beratungsprodukte oder tatsächlich über Schulungsprodukte, wo wir sagen, wir geben den Menschen mal den Raum, sich damit auseinanderzusetzen. Sei es im Thema Prompting, Achim, aber da setzen ja jetzt andere Tools wie zum Beispiel unser eigenes Tool drauf, um das leichter zu machen, weil das tatsächlich ein komplexes Thema werden kann.

Sei es aber auch einfach im Umgang mit den verschiedenen Systemen, sei es das kritische Denken, die Kreativität, die man damit nutzen kann, um vielleicht auch in neue Sphären zu kommen.

[Axel Lindhorst]
Also, was mich auch nochmal interessieren würde, was ist eigentlich, wenn wir mal darüber hinausgehen, über diese Unterstützungsfunktion mit der ganzheitlichen Automatisierung bei der Erstellung von Lernmaterialien? Ich glaube, wir haben da vor kurzem einen Text zugelesen, Susanne, den du auch umgeschickt hast, wo es in so eine Richtung geht, wo man sagt, okay, ich hätte gerne ein Micro-Learning zum Thema, in einem bestimmten Format, ich hätte gerne ein BBT, ich hätte gerne eine Online-Hilfe, ich hätte gerne ein Screencast, ich hätte gerne eine Simulation zu einem bestimmten Thema. Wie können wir das noch weiterdenken?

Zum Beispiel, ich könnte mir vorstellen, oder das fiel mir heute Morgen gerade auch nochmal ein, wenn es um IT-Learning geht, wir arbeiten ja als Input für solche Lernprojekte, für solche Schulprojekte mit Test-Scripts. Was ist, wenn wir jetzt Test-Scripts nehmen und dann twittern wir eine KI mit dem Test-Script und sagen, macht mir bitte daraus Online-Hilfen?

[Susanne Dube]
Genau, und dann kommt das Fertigste raus. Dann sind wir so ein bisschen bei diesem Beispiel, aus meiner Sicht, was so ähnlich funktioniert, wie das Dup-Dup-Dup bei der Videolokalisierung, wenn ich die Zwischenschritte, ich sage mal, ohne Prüfung einfach durchlaufen lasse, also wenn ich sage, ich gebe einen Input rein und nehme dann einfach das, was hinten rauskommt, als fertig hin, dann sind die verschiedenen Stellen, wo wir noch Stellschrauben haben, wo wir Reviews machen, also bei einer WBT-Erstellung meinetwegen, dass wir die Storybooks prüfen lassen oder bei einem Video auch die Präsentation nochmal anzugucken oder die Tipps, die man an die Kollegen gibt oder ähnliches.

Oder gerade sprachliche Feinheiten, die man im Unternehmenskontext ja im Change ganz oft hat, dass man sagt, hier müssen wir auf Feinheiten in der Sprache achten. Wenn ich da nicht diese Prüfschritte zwischendrin reinpacke, wo jemand mal den Text nachjustieren kann, den Sound nachjustieren kann oder vielleicht auch das Bild nachjustieren kann, dass es eben doch den richtigen Gesichtsausdruck hat, wenn wir bei einem Video wären. Ich glaube, wenn wir das nicht hinkriegen, dann sind wir bei der Stelle, wo wir dann irgendwann so ein Einheitsbrei produzieren, wo alles immer die gleiche Konnotation hat oder wo wir Maßnahmen rechts und links als Unternehmen bringen müssen, wenn wir ein Change begleiten, weil das Produkt selber da dann keinen Motivationsfaktor oder Ähnliches mehr mitbringen kann.

Habe ich das jetzt so ausgedrückt, dass man es verstehen kann, was ich meine?

[Axel Lindhorst]
Ja, dann sind wir wieder letzten Endes bei dem Motto, der Mensch steht im Mittelpunkt. Und das reflektiert ja auch die Haltung unserer Organisation dafür. Wir wollen mit unseren Kunden Dinge, Produkte und Services entwickeln, die sich am Nutzen für die Menschen ausrichten.

[Susanne Dube]
Genau.

[Axel Lindhorst]
Und wir wollen dabei die Chancen und Möglichkeiten nutzen. Aber wir sehen auch die Risiken bei dieser Form von Technologie und Innovation, technischer und gesellschaftlicher Transformation.

[Susanne Dube]
Genau. Da bin ich übrigens den Kollegen bei unserem Hackathon total dankbar, die diese Anti-Haltung eingenommen haben. Finde ich total spannend in dem Thema auch, die wirklich sehr vehement auf Risiken hingewiesen haben.

Ich würde die gar nicht alle aufführen, weil da kommen wir in politische Sphären rein, die wir hier jetzt im Podcast nicht brauchen. Aber tatsächlich zu gucken, dass wir sagen, wir wollen es da einsetzen, wo es Sinn macht, also wo es sinnvoll ist.

[Achim Kümmerle]
Das ist ja immer so ein bisschen, finde ich zumindest bei dem Thema Technik, Technologie, wie auch immer, es kommt ja darauf an, dass man eben, aus meiner Sicht zumindest, dass man ein Stück weit sich dessen bewusst ist, was man davon erwarten kann. Ich würde zum Beispiel in einem Auto auch nicht irgendwie ein Navi in Frage stellen. Es gibt glaube ich keinen, der irgendwie den Sinn und Zweck davon nicht erkennt oder das nicht eigentlich im täglichen Leben nutzt.

Trotzdem, wenn das Ding sagt, rechts abbiegen und rechts ist halt ein Fluss. Natürlich kann das sein, dass da mal irgendwo, diese Beispiele gibt es ja, wo dann die Autos in irgendeinem See landen, wenn man dem Ding blind vertraut. Keine gute Idee.

So etwas vergleichsweise ausgefeilt wie einem Navigationssystem. Und das trifft für mich bei einem Thema Gen-AI genauso zu. Völlig egal, ob das, deswegen finde ich Risiko immer so ein bisschen, das klingt so nach, das ist was ganz Böses, da könnte die Welt dran zerbrechen.

Das weiß ich nicht, glaube ich nicht. Ja, die Welt kann auch an anderen Sachen zerbrechen. Ja, wenn man das so sieht, ja, ich finde das klingt halt so wahnsinnig negativ.

Das Ding hat natürlich, es gibt bestimmte Schwächen, egal ob das irgendein Bias ist, wofür diese Dinger einfach, die sind prädestiniert dafür, dass die da aufgrund dieser Wahrscheinlichkeit, da gibt es ja diese ganzen zahlreichen Beispiele, dass wenn man diese Gen-AI-Themen, wenn man die Sätze vervollständigen lässt, dass der Chirurg, der ist halt immer männlich, wenn ich ihn da frage und die Krankenschwester ist immer weiblich, das ist jetzt aber trotzdem, das ist natürlich nicht richtig. Aber dass der Datenbestand, mit dem das Ding trainiert ist, die höchste Wahrscheinlichkeit ist eben bei dem Chirurg er und bei der Krankenschwester sie.

Ich kann dir das Beispiel gerne mal zeigen, das funktioniert im Deutschen nicht ganz so gut, im Englischen geht das eben extrem gut, dass du den Satz so vervollständigst, dass das eigentlich nicht die Rolle ist, sondern dass du wirklich, dass dann die Person ist, die Person dann kommt und das ist nicht so gesetzt.

[Susanne Dube]
Ja, da gibt es ja auch diese Bilder von, also diese Bildbeispiele, dass wenn man sagt, ich möchte einen indischen Menschen dargestellt werden, dass der immer einen Turban trägt und gefühlt 80 ist.

[Achim Kümmerle]
Weiß ich nicht, in Vietnam wird alles auf Bananenblättern serviert.

[Axel Lindhorst]
Mit Risiken meinten wir jetzt aber auch, ja, das gibt es natürlich, den Bias. Aber das erste Risiko ist eben, dass man diese Schritte überspringt, diese Form der Qualitätssicherung, dass man sich zu sehr verlässt auf das, was als Ergebnis rauskommt und denkt, okay, nee, das geht schon so klar, das sagt der JetGPT so und dann nehme ich das so.

[Achim Kümmerle]
Das ist aber das, was ich meine, dass du, wenn du dir dessen bewusst bist, über eine gewisse Unsicherheit, dass man dem Ding eben nicht blind vertrauen sollte, dann kommst du genau zu dem Schluss, dass du eben tatsächlich eine Qualitätssicherung, irgendeine Form von Approval noch brauchst, um tatsächlich das Ding wirklich gut nutzen zu können. Also nicht, aus meiner Sicht eben nicht ungefiltert jeden drauf loslassen und jeder nimmt das quasi als die Wahrheit, die wahre Münze. Da will ich jetzt gar nicht, jeder weiß, dass die Dinger teilweise halluzinieren und auch ein JetGPT mir brav, wenn ich sage, gib mir mal ein paar Zitate von Shakespeare zu Beyoncé.

Da ist das Ding höflich, freundlich wie immer und spuckt dir lustige Zitate von Shakespeare zu Beyoncé aus. Dass das nicht passiert sein kann, ist, glaube ich, jedem klar. Es fängt an mit einer nicht sinnvollen Fragestellung, wo ich eine nicht sinnvolle Antwort für kriege.

Das würde ich jetzt persönlich nicht unbedingt als Risiko bezeichnen, aber das Bewusstsein über die, was tut das Ding, was kann das Ding, hilft mir dabei eben, dass da gar nicht wirklich ein Risiko entstehen muss, aus meiner Sicht.

[Axel Lindhorst]
Das sind die internen Risiken, ja genau, das sind die intrinsischen Risiken und darüber hinaus gibt es, das wollen wir nicht verschweigen, eben auch Thema Bias, gesellschaftliche Risiken, ethische Risiken, politische Risiken, gesetzliche Risiken, zumal wir uns in einer Sphäre befinden, wo Regulierung dieser Technologien, zum Beispiel in der EU, erst angedacht wird.

[Susanne Dube]
Bestimmt bald was. Wir haben Ende des Jahres.

[Axel Lindhorst]
Da gibt es viele Stimmen, die man hört, die sich das auch so wünschen und fordern.

[Susanne Dube]
Ich habe gehört, da kommt was. Jetzt kann ich Gerüchte in die Welt setzen, da kommt was.

[Axel Lindhorst]
Es gibt ja auch durchaus unterschiedliche Positionen in der Organisation, das wollen wir auch nicht verschweigen, haben wir auch schon gesagt, in unserer Organisation ja auch, wie mit KI umzugehen ist.

[Susanne Dube]
Ich habe noch zwei kleine Sachen, vielleicht einen Hinweis, weil die Kollegen aus dem Hackathon sich vielleicht sonst benachteiligt fühlen und ich das einen ziemlich spannenden Gedanken fand, den sie bei uns mit reingebracht haben und ich glaube, Achim, mit dir wurde auch schon dazu gesprochen, nämlich tatsächlich zu überlegen, ob man sich nicht, da ja einiges wirklich leichter geht, also vermeintlich einfacher geht und schneller geht, wenn man es mit Gen AI Produkten erstellt, zum Beispiel Wissen schneller zur Verfügung stellen kann. Da geht es dann um Sicherung von Daten, wenn Menschen beispielsweise in Rente gehen oder das Unternehmen verlassen, da tatsächlich zu sagen, wir wollen das Wissen sichern. Mit diesem Thema setzen wir uns gerade auch auseinander, das möchte ich nicht unerwähnt lassen, weil ich das einen total spannenden Punkt finde, tatsächlich zu sagen, ja, wenn wir schon die Möglichkeiten haben, dann lasst uns doch mal gucken, was wir da tatsächlich besser machen können am Lernen.

Genauso das Thema adaptives Lernen. Ich weiß, es gibt auch Player auf dem Learning Markt, die sich genau damit auseinandersetzen, auch im KI-Bereich und auch da gucken wir immer, was da gemacht werden kann. Das nur so als Erwähnung.

Wir haben aber sehr schön, gerade im Gespräch sind wir so an den Punkt gekommen, was denn der Mensch so können muss und was ist denn unsere Hoffnung an uns vielleicht, an unsere Kollegen im Learning, aber vielleicht auch an die Menschen, die sich für Learning interessieren? Was wäre unsere Hoffnung im Umgang mit KI in der Zukunft?

[Axel Lindhorst]
Meine Hoffnung hatte ich schon ein bisschen zusammengefasst. Also der eine Aspekt ist natürlich die immer weiter sich optimierende Entwicklung bei der Unterstützung für uns, bei der Erzeugung von Texten, Bildern und anderen Medien. Der vielleicht auch ganzheitlichere Ansatz, mit dessen Hilfe man vielleicht entsprechende Tools mit Daten, mit organisationalen Daten füttern kann, mit Daten aus einer Systemimplementierung zum Beispiel und Gerüste oder weitgehend gefüllte Vorlagen zu bestimmten Medien, Lernformaten vielleicht dann eben auch schon erstellen kann.

Und vielleicht eben auch neue Formate und eins der Stichworte, die da ja auch gerne fallen im Moment, ist sowas wie Conversational AI, also Chatbots, mit denen man Gespräche führen kann, mit denen man sich austauschen kann, anstatt das mit Kollegen zu tun.

[Susanne Dube]
Hattest du nicht früher mal das sokratische Gespräch erwähnt?

[Axel Lindhorst]
Das sokratische Gespräch hatte ich beim letzten Mal, glaube ich, erwähnt. Ja, genau, durchaus. Drei Aspekte nur jetzt mal.

[Susanne Dube]
Das sind ja schöne Aspekte, die du da genannt hast. Achim, kannst du da überhaupt noch was draufsetzen? Was wäre so deine Hoffnung?

[Achim Kümmerle]
Hoffnung? Ich weiß gar nicht. Ich lebe nicht so nach dem Prinzip Hoffnung.

Das ist nicht so meins. Ich bin so ein bisschen, wie soll ich sagen, sehr gespannt, wie sich das Potenzial weiterentwickelt. Weil wir sind tatsächlich, das hat das Intern schon mal bei uns in der Vorbereitung erzählt, wir sind in so einer Phase, das ist so in diesem Hype-Cycle, ist das so diese Phase der Inflated Expectation, also wo völlig überzogene Vorstellungen, was denn AI eigentlich kann, herrschen.

Da kommt klassisch immer hinter diesem Hype-Höhepunkt, kommt immer so ein bisschen das Tal der Ernüchterung und dann irgendwann kommt erst danach die Phase, wo man sagt, okay, da nutzt man das dann wirklich produktiv und effektiv. Ich bin gespannt. Ich glaube, dass das nicht ganz, das wird schneller gehen als bei üblichen technologischen Entwicklungen vermutlich.

Weiß ich nicht. Ich bin jetzt halt nicht der Experte, der das besser weiß als der Rest der Welt, um Gottes Willen. Es wäre nur meine Vermutung, dass das eben wie die gesamte Entwicklung schneller geht.

Aber ein Stück weit wird da noch Ernüchterung einsetzen.

[Susanne Dube]
Ich glaube, bei dem einen oder anderen ist die vielleicht sogar schon da.

[Achim Kümmerle]
Was aber für mich trotzdem, also weil ich hätte gesagt, ich habe jetzt eben nicht diese komplett, ich glaube nicht, dass KI demnächst das ganze Thema Wissenstransfer in Unternehmen komplett ersetzt. Das ist also sowas wie euren Bereich oder auch unsere Software, die nicht mehr für nötig ist. Da bin ich sehr fest von überzeugt.

Es gibt zwar so diese, wie gesagt, die Leute, die sich nicht etwas intensiver mit auseinandergesetzt haben und quasi dem allgemeinen Tenor aus Medien macht ganz viele Jobs überflüssig, die da einschwingen.

[Susanne Dube]
Ja, manches stimmt ja vielleicht sogar oder die Jobs verändern sich. Also das, glaube ich, wird bei uns schon zutreffen, dass da manches anders wird.

[Achim Kümmerle]
Da gibt es ja dieses klassische Beispiel mit dem Radiologen. Das ist tatsächlich so ein, das ist jetzt nicht explizit Gen-AI, sondern das ist klassische KI-Mustererkennung. Da hat vor, glaube ich, sechs, sieben Jahren schon mal jemand gesagt, das Ding ist eigentlich, also einen MRT zu diagnostizieren, kann eine KI extrem viel schneller und effizienter.

Mit der Aussage, nach fünf Jahren gibt es eigentlich keine Radiologen mehr. Das macht eine KI. Bis dann aufgefallen ist, es stimmt aber gar nicht, weil der Radiologe halt nicht nur den Befund macht, sondern auch eine ganze Menge Tätigkeiten drumherum hat.

Das heißt, eine KI hat jetzt nicht irgendwie den Radiologen ersetzt. Es macht nur, es ersetzt gegebenenfalls Radiologen, die KI nutzen, zur Befundung, durch Radiologen, die das nicht machen, weil die besser sind, zuverlässiger und schneller. Aber die ganzen restlichen Tätigkeiten, die so ein Radiologe halt auch noch hat, übernimmt die KI halt erst mal noch nicht.

[Susanne Dube]
Das ist das, worum ich denke. Ich glaube, KI kann Jobs verändern. Es werden andere Jobs wichtiger werden oder Ähnliches.

Ich glaube, das wird es auch beim Lernen tun. Ich glaube, ich habe das schon mal gesagt, Axel. Ich weiß gar nicht, ob das im anderen Podcast drin war oder nicht.

Aber ich glaube, dass vielleicht Sachen, die schlecht sind, die werden jetzt so viel schlechter werden, dass man merkt, dass man es vielleicht gar nicht braucht. Diese sinnlos erstellten Lernvideos, die vielleicht keiner braucht, weil sie nur Masse produzieren, aber keinen Mehrwert für den Lernenden bringen, weil der einfach nur einen Raum zum Ausprobieren braucht. Ich bin beim Thema Lernen immer noch dabei, dass ich sage, Lernen wird auch mit KI nicht schneller gehen, denn Lernen braucht Zeit.

Das hat was mit den Sachen zu tun, die in meinem Kopf passieren, die ich in meine Hände übergebe, wo ich Gedanken entwickeln kann. Das sind tatsächlich Sachen, die bleiben. Aber der Weg dorthin wird sich vielleicht verändern.

Und die Produktion von Materialien, das wird sich vielleicht verändern. Und meine Hoffnung liegt darin, dass wir Menschen schlau sind und dass wir nicht blind immer denken, alles wird besser und alles wird einfacher, sondern dass wir, wenn wir schon KI-Tools nutzen oder auch sonstige Tools oder uns mit Lernen beschäftigen, dass wir einfach gucken, wie können wir es dadurch noch besser machen? Wie können wir Konzepte noch unterstützen, dass sie noch passender für die Mitarbeitenden sind?

[Achim Kümmerle]
Ja, das würde ich auch unterschreiben. Ich glaube tatsächlich, wenn ich ehrlich bin, nicht jetzt als Widerspruch zu dem, was du gesagt hast, sondern ich glaube, das Entscheidende ist tatsächlich wirklich die Geschwindigkeit. Also wenn du halt irgendwie tatsächlich, nehmen wir jetzt irgendwie angenommen, ihr würdet ein Training zu JetGPT machen, wenn ihr das alles brav konzipiert, bis das Ding in so einem ganz klassischen von vor zehn Jahren, mit ich mache meine Trainings…

[Susanne Dube]
Ja, dann ist JetGPT schon drei Versionen weiter.

[Achim Kümmerle]
Das ist drei Versionen weiter. Bevor das fertig ist, dann hat das gar keinen Sinn. Dann ist das zwar ein schönes und vielleicht sogar noch besser erstellter Trainingsinhalt, als man das Mitnutzen von KI machen kann, aber es dauert zu lange, es kommt zu spät.

Und diese Präge, die immer höher wird, da mithalten zu können, sehe ich persönlich gar keine andere Chance, als solche Möglichkeiten, die das bietet, zu nutzen und tatsächlich in der Zeit, also rechtzeitig bei dem Bedarf, irgendwas liefern zu können. Und ich würde sogar so weit gehen, lieber ein Stück weniger Qualität, aber rechtzeitig als shiny und glitzy, aber zu spät.

[Susanne Dube]
Ich würde da was anderes draufsetzen wollen, weil ich tatsächlich in meiner Rolle als Trainer, und das ist vielleicht noch was anderes, da könnte man mal ein Podcast machen über, was ist eigentlich Systemtraining? Und was ist Prozestraining? Und was bedeutet Lernen eigentlich?

Denn die Tool-Nutzung ist etwas, was ich persönlich immer gar nicht mehr wirklich schulen will, weil ich glaube, die Tool-Nutzung kann man gut über Performance-Support-Systeme, über schnell erstellte Lernvideos und sowas machen. Also wo klicke ich im Tool? Über schnelle Hilfen.

Und da werden die Tools auch selber sehr viel besser werden, mit direkten Hilfen, die dann in der Software drin sind. Aber was tatsächlich spannend ist, wo sich jemand mit auseinandersetzen kann, wo er vielleicht reden will, in Communities, in Lernzirkeln oder tatsächlich auch mal in einem ausgefeilten Training ist, wie fülle ich vielleicht meinen Arbeitsbereich aus? Also welche Aufgaben stehen für mich eigentlich dahinter?

Warum tue ich vielleicht Sachen? Was ist der große Prozess dahinter, den ich vielleicht erfüllen möchte? Und das ist klassischerweise etwas, was sich nicht so schnell verändert, sondern wo ich tatsächlich dann auch mal Raum geben kann, um tatsächlich darüber zu sprechen.

Deswegen mag ich ja Ideen wie Lernzirkel und Ähnliches, worüber wir auch noch Podcast machen werden, schon gemacht haben und Ähnliches. Deswegen finde ich ja, das ist etwas, wo ich glaube, das ist schon immer die Entwicklung von Technik im Lernbereich. Nicht alles war gut, was sich da entwickelt hat, aber ich finde, das Lernen an sich hat sich qualitativ verbessert im Corporate-Umfeld dadurch, weil es zielgerichteter geworden ist.

Und ich hoffe, dass das tatsächlich weitergeht. Ich fand es gut, dass du es gesagt hast, weil es war die Grundlage für das, was ich sage. Weil ich finde, Klick-Trainings braucht man nicht, glaube ich.

[Axel Lindhorst]
Auch wenn man sie in Zukunft viel einfacher gestalten kann und deswegen noch viel mehr davon machen kann.

[Susanne Dube]
Ja, genau, viele, viele Klick-Trainings.

[Axel Lindhorst]
Viel schneller, viel mehr.

[Achim Kümmerle]
Da bin ich gar nicht sicher, ob das jetzt... Ich bin ja gar nicht in meiner Meinung, dass es heute irgendwie ein Problem gibt, dass es nicht genügend Inhalt gibt, sondern eigentlich zu viel, der irgendwie nicht ganz richtig oder nicht ganz passend ist. Nee, nee, genau.

Kuratierung ist natürlich dann auch das Stichwort wieder. Genau, absolut. Und auch tatsächlich jetzt, also Kuratierung, was bestehende Inhalte anbelangt, aber auch wirklich mit Hirn und Verstand, den eigentlichen Bedarf.

Und nicht mehr irgendwie dieses, wenn ich jetzt an Susanne denke, mit irgendwelchen Klick-Anleitungen. Ich muss viele Sachen nicht, ich muss nicht diese Tendenz immer mit den ganzen Grundlagen anzufangen. Wie speichere ich eine Datei in Word oder wie schreibe ich mit Outlook eine Mail?

Das sind vergleichsweise... Da würden meine Kinder gehen.

[Susanne Dube]
Meine Tochter mittlerweile auch.

[Achim Kümmerle]
Genau. Sondern, dass man da so ein bisschen bedarfsgerechter irgendwie für die passende Zielgruppe tatsächlich dann die Inhalte erstellt und eben nicht mehr der Vollständigkeit halber alles abdeckt, sondern das, was tatsächlich...

[Sprecher 5]
Was wichtig ist.

[Achim Kümmerle]
Was wichtig ist. Und wo ich auch wirklich Mehrwert für stifte. Das kann unter bestimmten Umständen, sind das auch immer noch Klick-Anleitungen in irgendwelchen IT-Anwendungen.

Das mag sein. Aber halt nicht diese klassische... Wie schreibe ich eine Mail in Outlook?

[Susanne Dube]
Genau. Und das ist das, wie ich denke, wie wir. Axel, widersprich mir, wenn ich es falsch sage.

Wenn nur ich das denke als Person. Aber ich glaube, steht auch unser Bereich dafür. Es ist die Art, wie wir Training sehen.

Dass wir tatsächlich sagen, wir wollen das machen, was den Mitarbeitenden da tatsächlich hilft. Ja.

[Achim Kümmerle]
Ja.

[Susanne Dube]
Spannend.

[Achim Kümmerle]
Genau. Und dann gibt es natürlich auch... Ich muss das tatsächlich loswerden, weil das ist das, wo wir uns jetzt im Software-Bereich sehr stark fokussieren.

Wir kommen klassisch aus dem Bereich dieser Klick-Anleitungen. Also Technology Guidance. Wie gehe ich mit der Software um?

Welche Pfade muss ich durchklicken durch ein SAP, um meinen Auftrag anzulegen? Was auch immer. Die Musikperspektive spielt aber, weil Software intuitiver wird.

Weil die Leute mit Digital Natives ganz selbstverständlich damit umgehen. Die haben auch keine Angst, irgendwelche Knöpfe zu drücken. Meine Kinder gehen auf Software anders los als meine Eltern.

Eltern hatten so eine gewisse Angst, etwas falsch zu machen. Meine Kinder klicken einfach drauf und gehen davon aus, dass das Ding schon damit umgehen muss, wenn ich etwas falsch mache. Also jetzt nicht bewusst, aber so gehen die halt ran.

Das heißt, ich muss Leuten nicht die Angst nehmen, einfach mal irgendwie auf Speichern zu drücken oder auf Next oder was auch immer. Sondern das machen die von alleine. Was aber immer viel spannender wird, ist tatsächlich dieses ganze Thema, was du auch angesprochen hast.

Prozesse, Regelungen, egal ob sie unternehmensinterne Regelungen sind, ob das Regelungen von irgendwelchen Behörden sind. Also in so einem Pharma-Umfeld gibt es die FDA, die irgendwie alle Nase lang, das kommt wöchentlich, kommen da neue Policies raus, die die Leute irgendwie tatsächlich zur Kenntnis nehmen müssen und verinnerlichen müssen, um überhaupt ihren Job weitermachen zu können. Das sind alles so Themen, die sind total spannend.

Das kann ich aber tatsächlich so einer Gen-AI nicht einfach übergeben.

[Susanne Dube]
Das ist das, was ich vorhin meinte, weil da kommen ja auch Formulierungen drauf an, die dann vielleicht wichtig sind. Da muss eine Bedeutung mitgegeben werden.

[Achim Kümmerle]
Und es ist auch 99 Prozent korrekt, ist immer noch falsch. Also bei diesem ganzen Thema Policies, Procedures und Prozesse. Da will ich auch gar keine Variabilität drin haben.

Also bewusst nicht, weil ich möchte ja einen Prozess, dass der standardisiert befolgt wird oder abgearbeitet wird und nicht irgendwie, dass jeder, der quasi selbst eine KI befragt, diesen Prozess leicht anders lebt. So grob stimmt es schon, sondern ich möchte, dass das gleich bleibt. Und bei solchen Sachen sind Limitierungen konzeptioneller Art.

Das ist gar keine Limitierung, sondern das ist ein Konzept, das sich gegeneinander widerspricht.

[Susanne Dube]
Na ja, du würdest doch einem Lyriker auch nicht sagen, erstelle ein Lernkonzept zu einer FDA-Regel. Das gibst du keinem Lyriker, weil der besonders schöne Sprache machen kann. Sondern das gibst du jemandem, der quasi die Information auf den Punkt kriegt, der da die richtige Bedeutung rauskitzeln kann.

[Achim Kümmerle]
Da guckt dir jemand von Riegel drauf?

[Susanne Dube]
Ja.

[Achim Kümmerle]
Ja, ist so. Absolut.

[Susanne Dube]
Also das nutze ich etwas richtig. Also nehme ich einen Topf zum Kuchenbacken oder eine Backform und einen Ofen. Das ist dann tatsächlich das, wo es drauf ankommt.

Und da höre ich bei uns jetzt relativ deutlich raus, wir sind uns schon bewusst, KI kann nicht alles. Noch nicht. Wird auch nie alles können, sondern es wird bestimmte KIs geben, die bestimmte Sachen gut können.

Und über den Rest reden wir dann vielleicht in 50 Jahren nochmal.

[Axel Lindhorst]
Das sind keine Creativity Engines, sondern Tools zur Unterstützung der Produktion.

[Susanne Dube]
Und die werden sicherlich qualitativ ganz toll werden und sich weiterentwickeln. Und da sind wir sehr, sehr gespannt. Und ganz bestimmt müssen wir im nächsten Jahr nochmal reden.

Weil dann werden wir sagen, oh Gott, was haben wir da alles erzählt? Das war ja so ein Quatsch. Jetzt sind wir wieder schlauer geworden.

Von daher, ich würde sagen, für eine Momentaufnahme genügt das. Beim nächsten Mal kommen wir dann vielleicht zu viert. Da haben wir dann den Michael dabei.

Für heute würde ich mal sagen, dickes, dickes Danke, dass ihr schon da wart. Wenn ihr wollt, dürft ihr jeder einen Schlusssatz sagen.

[Axel Lindhorst]
Axel. Ja, ich wünsche euch allen viel Erfolg beim Ausprobieren der verschiedenen KI-Tools und beim Reflektieren unserer Gedanken, die wir uns hier in unserem Podcast gemacht haben.

[Sprecher 6]
Okay.

[Achim Kümmerle]
Dann bedanke ich mich auch fürs Zuhören und hoffe, so ein bisschen Anregungen gegeben zu haben, was man vielleicht irgendwie bedenken sollte, was man vielleicht einfach mal ausprobieren sollte und wünsche viel Spaß damit.

[Susanne Dube]
Ich sage auch, bleibt neugierig, bleibt lernlustig, was das Thema KI angeht. Es ist ein spannendes Thema. Es ist ein viel diskutiertes Thema und im Bereich Lernen wird es uns bestimmt noch eine Weile begleiten.

Von daher freue ich mich auf das nächste Gespräch mit euch dazu. Dankeschön. Übrigens, habt ihr uns schon abonniert?

Das geht überall dort, wo ihr eure Podcasts am liebsten hört. Wir freuen uns auf euer Feedback und vor allem auf den Austausch mit euch. Wie ihr uns erreicht?

Ihr könnt uns auf Podigi schreiben oder ihr folgt dem Lernlust Podcast auf Mastodon. Es gibt uns auch als echte Person auf Mastodon oder LinkedIn. Sagt uns also, was euch gut an unserem Podcast gefällt und wo wir noch besser werden können.

Bis dahin freue ich mich auf euch bei der nächsten Folge des Lernlust Podcasts.

Verwandte Artikel