Podcast

LERNLUST #30 // Die KI und wir...

Im Gespräch finden Axel Lindhorst, Johannes Starke und Susanne Dube ganz unterschiedliche Positionen zur umstrittenen Frage: Ist "Künstliche Intelligenz" Gefahr oder Chance für Lernen in Unternehmen?
26. Januar 2023
68 min
Susanne Dube, Learning Manager, tts Susanne Dube

Der LERNLUST Podcast hatte Winterpause. Doch früher als geplant hat das Team eine neue Folge aufgenommen.
Warum die Eile?

ChatGPT und "Künstliche Intelligenz" wird in den letzten Wochen heiß diskutiert. Die Systeme versprechen Möglichkeiten, die bedeutende Auswirkungen auf Text- und Bildgenerierung, Videoerstellung und vielleicht sogar Lernbegleitung in Unternehmen haben können. Grund genug, sich als Anbieter im Bereich des Corporate Learning damit auseinanderzusetzen!

Shownotes

Host:
Susanne Dube, Teamlead Learning // LinkedIn

Gäste:
Axel Lindhorst, Head of Learning Operations // LinkedIn
Johannes Starke, Product Manager Learning // LinkedIn


KI Tools - Genannte Beispiele: 
Chat GPT
Dall-E Link
Die semantische Suchmaschine WolframAlpha
OpenAI Whisper
OpenAI Whisper Install Guide
DeepL Write Textkorrektur Tool

Artikel, Blogs und Meinungen - Ein Auszug:
Erläuterung zu ChatGPT aus Computerwoche 20.1.2023

Gartner Hype Cycle Erklärung auf Wikipedia

Informationssammlungen zu KI:
https://wakelet.com/wake/ZFnix7cbFV8jLDMbONpE2
https://drphilippahardman.substack.com/p/the-generative-ai-landscape-for-learning

Ethan Mollick, Professor an der Wharton University, über den verpflichtenden Einsatz von AI-Tools in seinen Lehrveranstaltungen:
"All my classes suddenly became AI classes"

ChatGPT besteht einen MBA-Abschlusstest an der Wharton University. Das zeugt aber nicht von den besonderen Fähigkeiten der Tools, schreibt Max Muth in der Süddeutschen Zeitung

Stephen Wolfram, Erfinder der Suchmaschine Wolfram Alpha, über das Potenzial einer Verknüpfung von Wolfram Alpha und ChatGPT:
"Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT"

Eduard Kaeser, Neue Zürcher Zeitung, 26.12.2022:
Chat GPT: Der Roboter schreibt nicht, er schwafelt

Wikipedia über Mäeutik

Dave Cormier: ChatGPT search – Autotune for knowledge

Kognitionsforscher und KI-Experte Gary Marcus im Podcast-Gespräch mit Ezra Klein über ChatGPT als Meister des Pastiche und Bullshit-Generator, die daraus entstehenden Gefahren und vielversprechende Alternativansätze. Sehr hörenswert!

Fake AI Buch von Frederike Kaltheuner

TIME Magazine Artikel über die Arbeit von Mitarbeitendern der Firma Sama in Kenia, die die Trainingsdaten von OpenAI-Tools nach Gewalt, Hass und sexuellem Missbrauch durchsuchen

Sascha Mallenberg teilt im MeTacheles-Podcast seine Erfahrungen mit ChatGPT und prognostiziert, dass automatisierte Inhalteerstellung 2023 das Internet verstopfen wird

Wikipedia über "On Bullshit" von Harry Frankfurt

Filme
"Her" von Spike Jonze
Surrogates mit Bruce Willis

 


Alle Episoden unseres LERNLUST Podcasts finden Sie auch auf:

Apple Podcasts | Spotify | Google Podcasts | Amazon Music | Deezer

Transkript

[Intro]
LernLust, der Podcast für alles rund ums Thema Corporate Learning. Wir sind Susanne Dube und Claudia Schütze und wir sind Learning Consultants bei der tts. Schön, dass du heute dabei bist.

[Susanne Dube]
Bin ich jetzt mittlerweile tatsächlich an dem Status, wo ich sage, ich habe so viele Nachrichten gelesen, ich habe so viele Posts gelesen, ich habe so viele Artikel gelesen, ich möchte jetzt drüber reden. Und deswegen habe ich euch beide.

[Johannes Starke]
Der Begriff Blumenwiese klingt so optimistisch und so schön. Also ich sehe tatsächlich eher einen, ich nehme jetzt nicht das Zitat dornige Chancen in den Mund. Nein, das tue ich nicht.

[Axel Lindhorst]
Es wird halt nichts nützen. Es wird halt nichts nützen, weil die Technologie da ist. Und weil sie da ist, was da ist, wird letztes Jahr einfach durch in irgendeiner Form.

[Susanne Dube]
Manchmal habe ich beim Podcasten das Gefühl, ein Thema nicht zu Ende diskutiert zu haben. Normalerweise macht das auch nichts. Dieses Mal ist mir das aber bewusster denn je.

Zum Thema Künstliche Intelligenz ist dank ChatGPT eine Diskussion im Gang und stets gibt es neue Aspekte dazu. Scheinbar hat sich eine ganze Welt von Möglichkeiten aufgetan und damit auch eine Verantwortung für uns alle. Ein Podcast allein ist dabei nur ein Ausschnitt der Gedanken, die wir als Lernlust-Team dazu gerade haben.

Darum seht diesen Podcast als Momentaufnahme im Denken zu KI. Zwischen Johannes Starke, Axel Lindhorst und mir, Susanne. Herzlich willkommen Johannes, herzlich willkommen Axel zu unserem heutigen Podcast.

Ich habe tatsächlich noch keinen Titel für diesen Podcast. Ich werde ihn wahrscheinlich finden nach unserem Gespräch und warum, das wird den Zuhörern sicherlich gleich klar werden. Ich nenne ihn jetzt erst mal die KI und wir.

[Axel Lindhorst]
Toller Titel, aber ich freue mich trotzdem bei euch zu sein. Hallo Susanne, hallo Johannes, hallo liebe Zuhörerinnen.

[Susanne Dube]
Genau, ja warum so ein sperriger Titel oder so ein Forschertitel. Wir haben ja schon vor einer ganzen Weile überlegt, dass wir mal ein Podcast über Künstliche Intelligenz machen wollten und Axel, so richtig bin ich eigentlich zuerst auf dich zugekommen. Das war damals, es fühlt sich schon an, als wäre das eine Ewigkeit her, im Dezember, als Claudia und ich unser Redaktionsmeeting hatten.

Da bin ich auf dich zugekommen und habe gesagt, Mensch Axel, ich würde gerne mal über Künstliche Intelligenz reden. Erinnerst du dich?

[Axel Lindhorst]
Ja, eine kleine Ewigkeit, wenn es darum geht, wie sich Künstliche Intelligenz entwickelt, momentan. Damals habe ich gedacht, okay, ja, irgendwie ganz interessant. Da gibt es so dies und jenes, was man im Netz schon mal gelesen und gesehen hat und jetzt ist es seitdem eben eskaliert und explodiert und ein Riesenthema für uns alle.

[Susanne Dube]
Genau und am spannendsten daran finde ich, dass unsere Zeitleiste damals so war, also damals im Dezember. Ach ja, wir machen das vielleicht nächstes Jahr im Oktober, dann wird es so sein, dass wir aus Corporate Learning-Sicht mal darüber sprechen können. Dann war es ja so, dass auch im Dezember, Johannes, du dann plötzlich zu mir kamst und was gesagt hast?

[Johannes Starke]
Wahrscheinlich ganz ähnlich. Da ist jetzt dieses neue Tool ChatGPT und alle Welt redet davon und in den sozialen Netzwerken werden nur noch ChatGPT-Dialoge gepostet. Und lass uns mal in einem Podcast darüber sprechen, welche Auswirkungen das haben könnte.

Ich glaube, damals war ich noch sehr euphorisch. Meine Sicht darauf hat sich innerhalb weniger Wochen, Tage, Wochen doch verändert.

[Susanne Dube]
Ganz genau. Also ich erinnere mich noch sehr, sehr genau, Johannes, wie du gekommen bist, gesagt hast, wir müssen unbedingt über dieses Thema sprechen. Da tut sich was.

Und was, du willst im Oktober dazu sprechen? Nein, wir müssen das viel, viel früher machen. Und das war der Grund, warum wir im Januar sprechen wollten.

Und ich glaube, das war keine Sekunde zu spät, zu früh. So rum.

[Johannes Starke]
Es gibt da wahrscheinlich auch nicht den perfekten Zeitpunkt, weil ich merke, dass jeden Tag gibt es ja neue Entwicklungen. Und das ist ja wirklich eine absolute Momentaufnahme, die wir heute versuchen.

[Susanne Dube]
Genau. Und was ist es uns denn in der Zwischenzeit passiert? Ich erinnere mich, wir haben ja schon einen Versuch gemacht, jetzt über KI zu sprechen.

Und irgendwie hatte ich das Gefühl, wir sind überhaupt nicht auf einen Nenner gekommen. Was meint ihr beide? Woran hat das gelegen?

[Axel Lindhorst]
Naja, genau daran. An der extremen Breite von Äußerungen, von Tools auch, also von Möglichkeiten, die die neuen künstlichen Intelligenzen bieten. Und natürlich mit der Emergence von OpenAI mit seinen Chachipiti und DALI Anwendungen, die uns alle bewegen.

Also der Textgenerierung und der Bildgenerierung, die durch die Decke gegangen sind sozusagen und die einfach unheimlich viel für einen unheimlichen Aufruhr gesorgt haben.

[Johannes Starke]
Da stimme ich zu. Also zum einen natürlich diese permanente Flut an neuen Entwicklungen, Tools, Ideen, Standpunkten, die man so mitbekommt. Allerdings damit verbunden auch die schwere Greifbarkeit des Themas.

Es entwickelt sich in alle Richtungen. Jeder, jeder hat dazu was zu sagen. Und ich habe das Gefühl, dass wir bei unseren ersten Versuchen tatsächlich auf drei verschiedenen Schienen gefahren sind und alleine schon den grundlegenden Begriff Anführungszeichen künstliche Intelligenz ganz, ganz unterschiedlich verstanden haben und dann teilweise auch ein gewisses Verständnis füreinander fehlte.

Ich bin gespannt, wie wir damit heute umgehen werden.

[Susanne Dube]
Ja, da bin ich auch total gespannt drauf. Und ich habe eben auch genau diesen Eindruck gehabt, den du meintest. Uns fehlte so ein bisschen das Verständnis füreinander, weil jeder so seine Vorstellung davon hatte, was auch wichtig ist für uns gerade und wie auch unsere eigene Sicht auf das Thema ist und welche Möglichkeiten wir darin sehen oder eben auch welche Risiken und wie groß wir das auch fassen wollen.

Ich bin ja jemand, der immer sehr, sehr generell darum geht. Bei euch beiden weiß ich es ehrlich gesagt gar nicht so genau und würde deswegen sagen, als Auftaktpunkt für den heutigen Podcast würde ich einfach gerne von euch wissen, wie ist denn eure Position gerade zum Thema künstliche Intelligenz? Das heißt, welche Frage treibt euch vielleicht dort total um oder aus welchem Blickwinkel guckt ihr?

Also versucht es mal so ein bisschen zu beschreiben und vielleicht fängst du, Axel, damit an.

[Axel Lindhorst]
Naja, suchend, explorierend würde ich sagen. Also vor allem erstmal auschecken, dass das jetzt da ist, mit was wir alle versuchen so ein bisschen zu experimentieren oder viele von uns ist natürlich Chat-GPT, also Texterzeugung, Bilderzeugung und Videoerzeugung. Das habe ich auch alles schon mal probiert und ich gucke einfach jetzt mal, was ist dran.

Also ist das der erste Moment, der so ein bisschen überwältigend ist, zum Beispiel bei der Textgenerierung, wo man denkt, krass, dieses Tool, das redet ja mit mir wie ein Mensch und gibt mir total komplexe Antworten auf komplexe Fragen und ist in der Lage, das auszudifferenzieren, auch einen Dialog zu führen. Dieser erste Moment, dieser erste Eindruck, der entsteht, was ist da dran? Also wie gut und wie überzeugend ist das eigentlich wirklich, wenn man sich das mal genauer anschaut?

Oder inwieweit sind andere Methoden der Recherche, menschliche Methoden, andere technische Methoden, auch vielleicht gleichwertig oder können anderen Zwecken dienen?

[Susanne Dube]
Okay, dann würde ich da vielleicht sagen, vielleicht, Johannes, kannst du deinen Standpunkt auch nochmal sagen? Vielleicht kannst du da auch schon ein bisschen Bezug drauf nehmen oder einfach nur deine Sicht auf die Dinge nochmal wiedergeben.

[Johannes Starke]
Also ich schließe mich Axel Dir natürlich an. Also dieser Modus der permanenten Suche, des permanenten Ausprobierens, der Exploration, den habe ich ja im Dezember, Anfang Januar eingeschlagen. Mittlerweile habe ich da schon fast die Lust dran verloren, muss ich gestehen, auch wenn ich sie nicht verlieren möchte.

Ich habe das Gefühl, dass ich so diesen Gardner-Hype-Cycle schon zur Hälfte durchlaufen habe, also diesen Peak der überzogenen Erwartungen. Das war so Ende Dezember, wo ich ganz, ganz aufgeregt war und dachte, meine Güte, was da jetzt alles passiert. Dann aber wirklich auch so die Skepsis, Irritation, tatsächlich auch Ärger von vielen Posts über das Thema, die ich im Internet gesehen habe, bin ich mittlerweile in so einem Frustrationslevel fast schon angelangt.

Ich hoffe, ich kann das heute ein bisschen abschalten in diesem Podcast, wo ich aufpassen muss, nicht in die absolute Antihaltung zu rutschen und alles abzulehnen, was mit diesem Thema verbunden ist, was sicherlich nicht produktiv wäre, wenn ich mich in diese Richtung entwickeln würde. Gleichzeitig habe ich aber auch das Gefühl gehabt, dass ich vor den aktuellen Entwicklungen, die dann ja so im Dezember eigentlich begonnen haben, das Thema, in Anführungszeichen Künstliche Intelligenz mit einem vielleicht auch sogar schon demonstrativen Desinteresse nicht verfolgt habe, weil ich es so als Begriff für alles Mögliche, alles, was an Erwartungen an Computer gestellt wird, die noch nicht erfüllt werden können, das wird Künstliche Intelligenz in Zukunft alles lösen. Das war so ein bisschen das Gefühl, so ein absoluter Schwabelbegriff, der nicht konkret wird. Und ich habe das Gefühl, dass jetzt natürlich durch diese Auseinandersetzung mit dem Thema ein neues Tor für mich aufgestoßen wurde, zu einem Feld, wo ich sehr, sehr viel lernen muss, weil ich glaube schon, dass es sinnvoll ist, sich mit dem Thema in Anführungszeichen Künstliche Intelligenz zu beschäftigen und dass ich da jetzt das Gefühl habe, ich stehe vor unglaublich vielen Dingen, die ich erstmal verstehen muss und erstmal lernen muss und ich weiß eigentlich fast noch nichts.

[Susanne Dube]
Und damit hast du eigentlich genau das beschrieben, wie es mir gerade geht. Ich habe so das Gefühl, ich weiß, dass ich nichts weiß. Also das ist das, was ich in den letzten Wochen für mich gesehen habe und ich glaube fast ein bisschen, ich stecke so zwischen euch beiden.

Also ich bin wie Axel gerade suchend und habe in den letzten Wochen ja tatsächlich alles aufgesaugt, was ich gekriegt habe oder bekommen konnte. Jeglicher Artikel, habe mich selber in die Tools reingegraben, auch ausprobiert, was dort so geht. Habe da auch meine Frustrationsmomente erlebt, Johannes.

Also da bin ich auch dann tatsächlich so ein bisschen bei dir, dass ich überlegt habe, ich weiß auch nicht, so richtig funktioniert das nicht. Und jetzt habe ich den fünften Artikel gelesen, wo jemand Chachipiti ein Interview abwirkt, was ich selber auch machen kann. Das heißt, all diese Sachen kann ich richtig gut nachvollziehen.

Was ich noch nicht kannte, war der Gardner Halbcycle. Den muss ich mir mal angucken, den sollten wir vielleicht verlinken, oder damit jeder von uns vielleicht mal gucken kann, wo wir uns dort gerade befinden. Weil du hast das gerade wirklich schön beschrieben, Johannes.

Ich bin noch nicht so weit wie du, aber so einen kritischen Blick habe ich zum Teil schon. Wobei ich aus meiner Sicht und das ist vielleicht auch der Grund, warum ich einer bin oder eine bin, die sehr, sehr breit auf das Thema guckt. Ich will mich gar nicht verrennen in diesen Hype um Chachipiti und dieses eine System, was es da gibt, sondern ich will gucken, was bedeutet es eigentlich grundsätzlich für uns, fürs Corporate Learning und das eben aus zwei Sichten.

Einmal, welche Möglichkeiten bietet mir die Software oder bietet mir irgendeine Software, die eben KI kann oder mehrere. Da tut sich ja gerade so ein bisschen eine Blumenwiese auf aus meiner Sicht. Und wie müssen wir Menschen lernen, damit umzugehen?

Und ich glaube tatsächlich, dass es für uns als Lernverantwortliche oder Lehrverantwortliche, wie auch immer wir das bezeichnen wollen, aber auch für die Lernenden einen Wandel mit sich bringt, der tatsächlich auch eine Kompetenz im Umgang mit der KI braucht, die wir vielleicht noch nicht kennen. Und das ist das, was ich gerade spannend finde.

[Johannes Starke]
Ganz gewaltig. Der Begriff Blumenwiese klingt so optimistisch und so schön. Also ich sehe tatsächlich eher einen, ich nehme jetzt nicht das Zitat dornige Chancen in den Mund.

Nein, das tue ich nicht.

[Axel Lindhorst]
Hast du. Ein interessanter Aspekt, finde ich, in diesem Zusammenhang ist auch bei der Wahrnehmung, in dieser Orientierungsphase ist die kulturelle, popkulturelle Überformung des Themas. Wir sind eben nicht nur konfrontiert mit einer Reihe wissenschaftlicher, publizistischer Artikel, die jetzt das Netz fluten, sondern wir haben schon bestimmte Warnungen in den Mund zum Thema aus Büchern und aus Filmen.

Und so Leute, die sich mit künstlicher Intelligenz befassen, die werden auch schnell schon so zu kleinen Stars, zumindest in ihrem Umfeld. Und ich glaube, das spielt auch alles eine Rolle. Und deswegen hat man auch sehr schnell, ja, Hoffnungen, Ängste, Meinungen.

Da kann man schnell sehr meinungsstark werden, weil man einfach das alles auch mitdenkt.

[Susanne Dube]
Das ist ein ganz spannender Punkt, den du da ansprichst. Und vielleicht führt uns das auch zu den ersten von drei Fragen, die ich heute mit euch besprechen möchte. Nämlich, wie gehen wir eigentlich mit dieser aktuellen Berichterstattung um?

Also was passiert mit uns da gerade? Wenn ihr damit einverstanden seid, würde ich jetzt zu dem Punkt schon überführen. Passt das für euch?

[Johannes Starke]
Also ich finde es auf jeden Fall spannend, Axel, dass du eben gesagt hast, wie das Thema popkulturell schon vorgeformt ist. Das war nämlich auch genau mein Eindruck, dass ich vor den aktuellen Entwicklungen eben aus diesem Desinteresse an dem Thema eigentlich heraus Filme wie H.E.R. oder Blade Runner oder so als nette Geschichten gesehen habe. Und mir diese ganzen Gedanken, die mir jetzt in den Sinn kommen, wenn ich die Filme nochmal sehe, überhaupt noch nicht hatte.

Und ich habe gerade vor wenigen Tagen H.E.R. nochmal gesehen und das hat mich echt umgehauen, wie anders ich den Film jetzt betrachte als damals.

[Susanne Dube]
Und das ist das, warum ich vielleicht auch gerade jetzt so ein bisschen auf das Thema Berichterstattung schon gehen wollte. Weil das eine ist tatsächlich diese Vorformung, die wir dort haben über Filme, über Bücher, über Nachrichten, die wir schon früher gehört haben, Ideen, die generiert worden sind. Und gleichzeitig stehe ich jetzt vor dieser Herausforderung, dass ich ganz, ganz viel lese und nicht alles betrifft nur den Bereich Corporate Learning und meinem Berufsfeld, sondern da reden Leute darüber, dass quasi das gesamte Suchverhalten von mir sich ändern wird, dass Schule sich verändert, was mich privat betrifft für mein Kind, dass KI in meinen Haushaltsgeräten drin ist.

Das ist das, wo ich weiß, Johannes, darüber willst du gar nicht reden, gehört auch überhaupt nicht hierher. Aber es ist natürlich in der Ganzheitlichkeit bei mir drin und damit hat es für mich auch als Mensch eine Auswirkung. Und vielleicht ist das ein Grund, warum es mir auch immer so schwergefallen ist, diesen Fokus wieder hinzukriegen.

Und ich bin ganz glücklich über die letzten Gespräche, die wir dazu hatten. Wie gesagt, wir hatten ja auch schon mal einen Podcastversuch gemacht, weil mir das jetzt geholfen hat, tatsächlich zu gucken, ich muss zielgerichteter schauen, was ich mit den ganzen Informationen, die da draußen sind, anfangen möchte. Und was ist davon vielleicht gebeist durch irgendwelche Geschichten, die ich vorher kenne, die ich gesehen habe?

Was ist vielleicht aber tatsächlich eine Chance, die ich nutzen kann? Oder was ist etwas, womit ich mich ganz realistisch auseinandersetzen muss in meiner Arbeit als Berater im Corporate-Learning-Umfeld?

[Axel Lindhorst]
Also die Auswirkungen sind ja schon sehr konkret. In Schulen und Universitäten zum Beispiel, wenn man in Betracht zieht, dass der Staat New York, also Chechnya, schon verboten hat an den Schulen.

[Susanne Dube]
Das finde ich aber genau den falschen Ansatz.

[Axel Lindhorst]
Es wird halt nichts nützen, weil die Technologie da ist. Und weil sie da ist, wird das letztes Jahr einfach durch in irgendeiner Form.

[Johannes Starke]
Und da habe ich gerade heute früh, Axel, zu dem Thema, wie amerikanische Universitäten mit diesem Thema umgehen, die aktuelle Nachricht gelesen, dass Chad Gipetty die Prüfungsaufgaben an der Wharton Elite-Uni hier zum MBA bestanden hat. Aber tatsächlich, und das fand ich ganz interessant, das war ein Artikel von der Süddeutschen, auch die Einordnung, dass diese Aufgaben, diese Mathematikprüfung des MBAs an Wharton, dass die wohl auf einem Niveau seien. Also so behauptet das der Artikel, dass das einigermaßen clevere SchülerInnen des Gymnasiums auch lösen könnten.

Dass also da der Punkt nicht ist, der fachliche Anspruch der Aufgaben, die es zu lösen gilt, sondern eigentlich so das Eintrittsticket an die Elite-Uni. Wenn ich da einmal aufgenommen bin, habe ich es geschafft. Und just besagter Professor hat Chad Gipetty auch schon aktiv in seiner Lehre eingesetzt und fordert seine Studierenden auf, mit AI-Tools zu arbeiten.

Also das war jetzt eine Demonstration, was universitäre Lehre eigentlich anders ist, als einfach nur das Beantworten von fachlichen Fragen. Was da alles noch mit reinspielt, eben auch systemisch mit reinspielt, dieses Elite-Uni-Ding und so.

[Susanne Dube]
Ja und das ist, also ich glaube alleine, dass wenn wir über Schule oder Universitäten und welche Auswirkungen es dort hat, wenn wir darüber sprechen würden, könnten wir wahrscheinlich drei Podcasts füllen.

[Axel Lindhorst]
Der wichtigste, einer der wichtigen Aspekte ist ja, es geht eben nicht bei Chad Gipetty darum, Fachfragen zu beantworten, um Wissen zu finden, sondern es geht darum, dass sie in natürlicher menschenähnlicher Sprache erzeugt werden. Ui.

[Sprecher 4]
Ui?

[Johannes Starke]
Ui, also genau. Also das war ein Ausdruck des Erstaunens, den eine KI wahrscheinlich auch so genutzt hätte, um irgendwelche Eigenschaften zu simulieren. Ich denke jetzt gerade an diese Google-Tech-Demo.

Könnt ihr euch vielleicht daran erinnern, als Google demonstriert hat, dass ein Algorithmus einen Anruf in einem Restaurant oder einem Frisiersalon, ich weiß es nicht mehr, führt und dann mit dem Menschlichen gegenüber gesprochen hat und dann immer wieder simuliert hat. Jetzt lachen wir drüber. Ich finde, das ist eine von vielen ganz schrecklichen Entwicklungen, die natürlich auch reguliert gehören.

Jetzt nehme ich schon mal den ersten Standpunkt ein.

[Susanne Dube]
Du darfst immer Standpunkte einnehmen.

[Axel Lindhorst]
Mich amüsiert das vor allem.

[Susanne Dube]
Ja, noch? Bis du das erstmal selber so einen Anruf kriegst. Wie geht ihr denn mit all diesen Infos um?

Also wir sind jetzt wieder abgedriftet dann sofort in dieses Schulthema und haben darüber gesprochen, aber lass uns mal gucken, wie gehen wir denn generell mit diesem Thema um aus unserer Sicht? Wie geht ihr mit diesem Hype um, der gerade passiert?

[Johannes Starke]
Du hast vorhin, oder ich habe es auch erwähnt, die Flut an Nachrichten dazu, gerade in sozialen Netzwerken. Und ich wünsche mir mittlerweile wirklich einen Blocker für Content, der mit Chat, GPT oder ähnlichen Systemen erstellt wurde, weil diese anfängliche naive Begeisterung und Demonstration, guckt mal, Chat, GPT kann mit mir sprechen und einen Dialog führen und kann meine Fragen beantworten. Und da kommt irgendwie einigermaßen sinnvolles Zeug daraus.

Das ist auf einem Niveau verblieben, wo es einfach nicht weitergeht. Das System hat einfach Beschränkungen. Demnach können wir nicht noch mehr Magie entlocken als diese Beschränkungen.

Klar, man kann jetzt irgendwie lernen, clevere Prompts zu schreiben, aber immer wenn ich sehe, ein Artikel, der von Chat, GPT geschrieben wurde, dann schalte ich erst mal direkt ab. Das möchte ich nicht. Ich möchte, dass wir uns da aus einer menschlichen Perspektive beschäftigen.

Was macht das mit uns? Was macht das mit unserer Gesellschaft? Was macht das mit unserer Arbeit, mit unserer Profession?

Und wie können wir diese Technik wirklich zum Sinnvollen einsetzen? Da liegt mein Interesse. Da lese ich auch alles, was ich in die Hände bekomme.

Aber diese naive Begeisterung, die schreckt mich mittlerweile sehr, sehr ab. Und ich habe das Gefühl, dass da jetzt alles in einen Topf geworfen wird und einmal kräftig rumgerührt wird und dann nach wie vor das, was auch vor Chat, GPT war, sämtliche Hoffnungen an was Technik irgendwann mal können wird, darauf projiziert wird.

[Susanne Dube]
Tatsächlich. Oder Axel, du zuerst. Genau, du bist der Gast.

[Axel Lindhorst]
Also bei Chat mit GPT bin ich auch in einer ähnlichen Phase wie Johannes. Also die Grenzen, dass ich bin noch nicht genervt, aber die Grenzen sind mir relativ schnell auch klar geworden. Aber ich finde es nach wie vor trotzdem interessant.

Und ansonsten gehe ich damit eigentlich spielerisch um. Also ich integriere das so in die Wahrnehmung von Informationen und Einflüssen, die ich so in den großen Malstrom täglich aufnehme. Und dann bestimmte Dinge triggern mich und dann lese ich halt mehr nach und dann probiere ich die halt aus.

Also in dem Stadium bin ich hauptsächlich noch. Bei Chat, GPT bin ich schon ein bisschen weiter in diesem Zyklus. Das hat glaube ich auch mit dem Gartner-Zyklus zu tun.

[Susanne Dube]
Ja, ich finde das sehr, sehr spannend, weil ich bei mir diese Abneigung gegen Chat, GPT generierte Texte gar nicht empfinde. Im Gegenteil. Ich packe einen tatsächlich in die Shownotes rein, aus einem ganz bestimmten Grund.

Ich glaube, dass die Entwickler von Chat, GPT, nämlich OpenAI, ihr Wissen darüber, was Chat, GPT ist, sicherlich mit eingespeist haben in das Tool. Und es gibt einen interessanten Artikel, wo Chat, GPT interviewt wurde dazu, was Chat, GPT ist. Und das ist glaube ich das Einzige, wo ich sage, da macht es auch mal Sinn, weil das dann ja einerseits die Möglichkeiten des Tools zeigt.

Also da kann man sich mal anschauen, wie antwortet dieses Tool, wie ist die sprachliche Qualität. Und ich kann natürlich dann diese relativ einfachen und eindeutigen Informationen dort rauslesen. Solche Sachen finde ich auch ganz okay.

Und ich finde es auch manchmal ganz okay, wenn ich mich hinsetzen würde und dort einfach eine Frage stelle an Chat, GPT und kriege so ein paar allgemeine Gedanken. Dann ist das ein netter Einstieg. Und so nutze ich solche Art von Texten tatsächlich.

Ich würde sie nicht als vollständiges Informationspotenzial sehen. Also ich habe auch schon Artikel gesehen, die mich furchtbar genervt haben, Johannes. Und da bin ich komplett bei dir, wo jemand gesagt hat, schaut mal, ich habe Chat, GPT befragt zu meinen Erkenntnissen zu Thema XY.

Und guckt mal, Chat, GPT ist der gleichen Meinung wie ich. Das hatte ich dir dann auch weitergeleitet, Johannes. Und du hast gesagt, das, was da drin steht, ist falsch.

Von daher bin ich da tatsächlich vorsichtig geworden. Sondern in diesem einen Fall habe ich es tatsächlich hier oder werde ich es mal verlinken, weil ich es da gut finde, um den ersten Einstieg zu bringen oder um auch dort sich noch mal zu informieren. Finde ich interessant, wie das auch geframed ist.

Und ansonsten bin ich jetzt mittlerweile tatsächlich an dem Status, wo ich sage, ich habe so viele Nachrichten gelesen. Ich habe so viele Posts gelesen. Ich habe so viele Artikel gelesen.

Ich möchte jetzt darüber reden. Und deswegen habe ich euch beide.

[Johannes Starke]
Ich würde gerne die drei Punkte, die du genannt hast, aufgreifen. Wenn ich es richtig verstanden habe, hast du gesagt, einerseits hast du Interesse daran, Chat, GPT über sich selbst zu befragen, weil du glaubst, dass da im Hintergrund einiges an Informationen eingespeist worden ist von den EntwicklerInnen, die du abrufen kannst. Habe ich das richtig verstanden?

[Susanne Dube]
Ja, ich glaube, dass die Entwickler in diesem riesen Datenpool, den sie hatten, sicherlich auch die Daten dazu gegeben haben, weil eine Erwartung wäre, dass das die ersten Fragen sind, die an das Tool gestellt werden. Also ich als Entwickler hätte das getan. Das sind dann die Marketing-Infos, die da mit drin stecken.

[Johannes Starke]
Also da traue ich Chat, GPT keinen Millimeter über den Weg. Ganz konkret auch. Ich habe Chat, GPT gefragt, wie mit meinen Daten umgegangen wird.

Also ob meine Daten erfasst werden, die ich eingebe. Und natürlich werden sie erfasst. Das ist der Grund, warum das eine offene Testphase ist.

[Axel Lindhorst]
Natürlich steht ja auch schon ein Disclaimer. Ja, da steht schon ein Disclaimer.

[Johannes Starke]
Aber natürlich Palawata, Chat, GPT, nein, es hat überhaupt nichts erfasst und ich kann auch gar nichts erfassen und blablabla. Also das lügt mich einfach frech ins Gesicht. Oh Gott, ich nehme jetzt schon menschliche Begriffe.

[Sprecher 5]
Man kann ja gar nicht lügen.

[Johannes Starke]
Genau, es kann nicht lügen. Es fabriziert Bullshit. Also in der Definition von Harry Frankfurt, dass es einfach keinen Bezug zu wahr oder falsch hat.

Dass es einfach irgendwie plausibel und erwartbare Dinge von sich gibt. Deswegen halte ich Chat, GPT nicht für eine vertrauenswürdige Quelle von Informationen. Auch nicht über sich selbst.

Obwohl ich natürlich weiß, dass im Hintergrund viel moderiert wird und versucht wird, von dem Entwicklerinnen-Team Fragen, die rassistische, diskriminierende Aussagen so produzieren könnten, abzufangen. Das zweite war der Punkt, dass du mir gesagt einen Artikel geschrieben hast und ich mich so aufgeregt hatte, dass hier auch wieder nur ein Dialog mit Chat, GPT wiedergegeben wird und die eklatanten, sofort ersichtlichen Mängel nicht angesprochen wurden. Es ist ja völlig legitim, in bestimmten Konstellationen algorithmisch generierten Output zu verwenden, wenn ich ihn einordne, wenn ich diskutiere, wenn ich ihn kritisch befrage.

Aber das ist dann das Mindeste, was ich erwarte von den ErstellerInnen eines solchen Artikels. Und der dritte Punkt, den du gesagt hast, zur Ideengenerierung, den kann ich sogar nachvollziehen. Wenn ich Aussagen brauche, um sie mit meinen gegeneinander zu stellen, dann kann ich natürlich Chat, GPT als Strom von stromlinienförmigen Informationen verwenden, an denen ich mich abarbeiten kann.

Also einfach mal eine Sammlung von Aussagen, von Titeln, von Quizfragen zu generieren. Klar, das ist legitim, aber ich muss dann halt damit was tun als Mensch.

[Susanne Dube]
Das stimmt. Und das ist vielleicht der Punkt, warum ich sage, ich möchte jetzt mittlerweile darüber reden. Also ich möchte mich austauschen.

Es gibt auch Barcamps, die da mittlerweile angeboten werden, glaube ich. Da soll in Kürze was stattfinden. Und ja, es gibt die Möglichkeit, mit euch zu reden.

Da bin ich sehr dankbar für. Und ich bin auch dankbar für all die Listen und Zusammenstellungen an Tools, die es da mittlerweile gibt. Ich habe nur just im Moment noch nicht die Zeit gehabt, alle durchzuarbeiten.

Aber damit würde ich vielleicht, wenn ihr damit einverstanden seid, mit der Berichterstattung so ein bisschen und wie wir damit umgehen, ein bisschen weitergehen zu der zweiten Frage, die ich mir aufgeschrieben habe. Nämlich, wenn wir uns jetzt angucken, das Thema KI hat mit Ende letzten Jahres einen absoluten Hype erlebt. Und wir würden uns jetzt dieses Jahr angucken und den aktuellen Moment, den wir haben.

Welche Bedeutung hat denn künstliche Intelligenz im Bereich Corporate Learning, also unserem Arbeitsumfeld, jetzt gerade in diesem Moment und vielleicht noch im nächsten halben Jahr? Sagen wir es mal so. Oder ist das schon zu lang?

Nee, ein halbes Jahr ist okay.

[Axel Lindhorst]
Ich fange mal an aus meiner Sicht als Content-Ersteller, Content-Creator. Die erste Antwort ist noch so mal so ein bisschen Rückgriff auf das, was wir vorhin hatten. Das ist das Dialogprinzip.

Ich kann eben mit Chat-GPT und vergleichbaren Tools, die auf einem Language-Model basieren, ich kann in den Dialog treten. Das heißt, ich kann ein so kratisches, meiotisches Prinzip an den Start bringen und kann mich austauschen und kann versuchen, darüber Anstöße zu bekommen, Reflexionen zu starten, Trigger zu setzen, die sonst vielleicht nicht zustande kommen würden. Oder klar, natürlich in meiner Peer-Group würden sie zustande kommen, aber mit anderen Suchmethoden, zum Beispiel mit Suchmaschinen, würden solche Sachen möglicherweise nicht entstehen.

Das ist vielleicht auch eine Hoffnung oder eine vage Idee, wo ich glaube, das ist etwas, was mir in der Praxis was bringen könnte. Und der zweite Aspekt ist halt die Umformung von Texten und die gruppengerechte Aufbereitung von Texten oder die zweckgerichtete Aufbereitung von Texten, wo ich sagen kann, okay, ich möchte etwas exerpieren. Ich möchte etwas in Listenform haben.

Ich möchte den Text länger haben oder kürzer haben. Ich möchte den Text in einer anderen Sprache haben, zum Beispiel für eine bestimmte Altersgruppe oder für eine bestimmte Zielgruppe, auch Professionals oder eher Amateure. Also auf diese Art Texte oder Wissen, was vielleicht auch schon vorliegt, zu prozessieren.

Das klingt für mich interessant. Im Bereich Textgenerierung, Textverarbeitung.

[Susanne Dube]
Genau. Und wenn ich das jetzt höre, also einmal dieses Dialogsystem, also jemand spricht mit mir, da kommen mir gleich tausend Ideen, was das eigentlich, wie das jetzt eingesetzt werden könnte, tatsächlich im Corporate Learning Bereich. Also da stelle ich mir die Frage, welchen Einfluss wird das haben auf Performance Support Systeme?

Nur kurzfristig hat es das vielleicht noch nicht. Kurzfristig ist es eher vielleicht etwas, was eine Konkurrenz für Google ist und für solche Nachschlagesysteme, wenn es um das geht. Es ist aber auch spannend, wenn es um den Bereich des adaptiven Lernens dann vielleicht geht und mir ein Dialogsystem vielleicht Hinweise gibt dazu, wie ich weitergehen kann.

Aber ob das jetzt kurzfristig im nächsten halben Jahr kommt, weiß ich nicht. Ich glaube, viel spannender ist da vielleicht der zweite Punkt, den du genannt hast, nämlich mit dem Bearbeiten von Texten oder dem Umarbeiten von Texten, die ich habe, wo ich das selber vielleicht als Autor verwenden kann. Oder was mir ja jetzt auch begegnet, ist schon in irgendwelchen Videotools, wo ich auch Texte eintragen kann, noch erweitern kann und dann eben kombinieren kann mit noch einer bildgenerierenden KI, die mir dann vielleicht noch einen Sprecher dazu macht.

Aber das sind so meine Gedanken dazu. Johannes, du hast bestimmt auch welche.

[Johannes Starke]
Ja, genau. Ich würde ganz gerne erst mal das aufgreifen, was ihr jetzt schon erwähnt habt. Also ich kenne mich jetzt in der Prämiotik nicht so stark aus wie du, Axel.

Aber ich vermute, damit ist nicht das gemeint, was Chet Gipity mit uns macht. Einfach uns nach dem Mund reden und eine Antwort so zu formulieren, wie es erwartet, dass sie am glaubwürdigsten und am passendsten zu unserer eigenen, durch die Frage übermittelten Erhaltung passt.

[Axel Lindhorst]
Möglicherweise gibt es zu wenig Widerspruch von Chet Gipity, um zu einer sokratischen Form zu kommen in der Dialoge.

[Johannes Starke]
Ganz genau, ganz genau. Das ist nämlich auch wirklich eine Sache, die mich tatsächlich sehr stört und nicht förmlich, wie du gesagt hast. Wo ich die Sorge habe, dass das einfach ganz automatisch verflacht, weil es ja so einfach scheint, einen Pseudodialog mit dem System zu führen.

Weil das, was Lernen ausmacht, was auch wirklich gutes und wertvolles Lernen im Unternehmen ausmacht, das ist ja der Diskurs, auch ästhetische, ethische Widersprüche aufzunehmen, zu reflektieren. Das Wissen, um mein Gegenüber mit in den Dialog einfließen zu lassen, also auch dieses intersubjektive Verständnis, was wir ja ganz automatisch mitbringen, wenn wir mit Menschen sprechen. All das fehlt ja dem Dialog mit der Maschine.

[Susanne Dube]
Aber kann man da – also ich grätsche da jetzt mal ganz kurz rein, Johannes, weil ich mich frage, ist das nicht vielleicht einfach nur ein Merkmal von Chet Gipity und könnte das mit einem anderen, wie sagt man dazu, sprachmodellierende Systeme? Es gibt ja auch andere Anbieter, die getestet haben. Google hatte damals Lambda und Ähnliches, die vielleicht anders kommuniziert haben.

Chet Gipity ist ja mit Absicht – und das hast du ja selbst auch gesagt – hat ja eben diese Prüfmechanismen, damit eben keine rassistischen Aussagen kommen, damit niemand verletzt wird. Ich habe Sachen gelesen, wo jemand Chet Gipity zu Aussagen für explizite Liebesromane, nenne ich es mal so, treiben wollte und es nicht geschafft hat. Und da einfach eine Bremse drauf liegt, die diesem System zu eigen ist, aber nicht der Technik an sich.

[Johannes Starke]
Ich erhoffe mir ja keine rassistischen, sexistischen Aussagen von Chet Gipity. Also bitte nicht falsch verstehen.

[Susanne Dube]
Nee, nee, aber damit verhützt du ja quasi dieses Ganze, was Emotion ist, was diese Reibung ausmacht, die du so beschrieben hast. Wenn wir miteinander reden, wir reiben uns.

[Johannes Starke]
Ja, weil ich kenne dich ja auch als Person und ich erwarte ja auch schon, wenn ich mit dir zu bestimmten Themen spreche, dass da ein, im besten Sinne, produktiver Dialog draus entsteht. Und diese Erwartung habe ich an Chet Gipity nicht. Ich weiß, dass Chet Gipity mir nach dem Mund faselt und möglichst so mich überflutet mit eloquent klingendem Text, dass ich das einfach so ermüdet abnicke.

[Axel Lindhorst]
Aber ich würde dich gerne nochmal kurz trennen. Du hast davon gesprochen, Johannes, dass das zum Lernprozess gehört. Ich meinte aber ja gar nicht, dass ich jetzt mit Chet Gipity lernen will, sondern wie ich meine Arbeit erleichtert aus meiner Content Creator, aus meiner Instructional Designer, aus meiner Corporate Learning Expertenbrille.

Ich bin jetzt nicht der End-User, nicht der Lerner.

[Johannes Starke]
Dann habe ich dich nicht richtig verstanden, genau.

[Axel Lindhorst]
Das waren die beiden Aspekte, die ich meinte, die mir aus Sicht meines Jobs die Arbeit vereinfachen könnten. Nicht, die das Lernen vereinfachen könnten für unsere Zielgruppen.

[Johannes Starke]
Was erwartest du als Content Creator oder als Lerndesigner von dem ersten Punkt, von dem du das sokratisches, meiotisches Prinzip genannt hast?

[Susanne Dube]
Das würde mich jetzt auch interessieren.

[Axel Lindhorst]
Wenn ich ein Dialog führe, wenn ich in ein Thema eintauche, ein neues Thema. Das ist ja bei uns so üblich. Wir müssen ja von Projekt zu Projekt uns mit neuen Themen beschäftigen und sagen, wenn das neue Thema ist, ein Gesetz, zum Beispiel ein Antidiskriminierungsgesetz oder so was.

Dann kann ich mir erst mal Informationen, erst mal kann ich mir das Gesetz natürlich durchlesen und dann kann ich aber Aspekte isolieren und kann versuchen nachzufragen und in Dialogform detaillierter zu werden. Das basiert möglicherweise auch gar nicht jetzt auf dem, was das Chat-GPT momentan kann mit der Wissensbasis, über die es verfügt. Aber das Potenzial ist doch auf jeden Fall da in der Technologie, wenn sich die Wissensbasis erweitert, noch mehr erweitert.

In Echtzeit auf das Internet zugreift.

[Susanne Dube]
Weil da hätte ich sonst eine Einschränkung gemacht.

[Axel Lindhorst]
Auf organisatorisches Wissen.

[Susanne Dube]
Ja, genau. Da hätte ich sonst eine Einschränkung gemacht, tatsächlich. Weil im Moment ist es ja so, dass die Datenbasis von Chat-GPT bis 2021 reicht.

Das heißt, es kann gar nicht alles Wissen drin haben. Und es wird ja immer wieder erzählt, merkt man auch in der Berichterstattung draußen, es macht Fehler. Das heißt, im Zweifel kann ich zwar in Austausch treten, aber ich kann mir nie sicher sein, ob das, was da wiederkommt von dem Tool tatsächlich der Wahrheit entspricht und auch richtig ist und mich auf eine richtige Fährte lockt.

Also ich muss das natürlich kritisch betrachten.

[Axel Lindhorst]
Ich kann fragen, wie ist das gemeint? Was bedeutet das? Solche Fragen stellen.

[Susanne Dube]
Ich kriege vielleicht eine Sichtweise und dann kann ich meine eigene Sichtweise dagegen challengen.

[Axel Lindhorst]
Auf keinen Fall kann ich natürlich davon ausgehen, dass das eine besonders erleuchtende Sichtweise ist. Aber das meine ich ja. Es stößt Gedanken an.

Es löst möglicherweise auch bei mir aus, dass ich mir bestimmte Fragen überlege, um in diesen Dialog zu treten. Und es stößt Reflexionen an. Allgemeingültig ist das natürlich nicht.

[Johannes Starke]
Und ich kann das absolut verstehen und ich habe da insbesondere die Hoffnung, dass vielleicht etwas unklar von uns formulierte in einem, keine Ahnung, in menschlicher Sprache eben die nicht präzise ist formulierte Punkte von der AI sortiert werden können und dann aber wiederum mit konkreten faktischen Datenbanken und so weiter gegengecheckt werden können. Und das kann ja eben die Technologie, auf der Jett GPT beruht, nach meinem Verständnis nicht leisten. Es generiert eben nur ohne jede Möglichkeit mit Fakten gegenzuchecken, potenziell plausible Sprachmuster.

Aber ich glaube, da gibt es durchaus Möglichkeiten, wie sich die Technologie da weiterentwickeln könnte. Also habe ich zum Beispiel, wie gesagt, ich habe da jetzt nicht das fachliche fundierte Verständnis drin, aber einen Artikel von dem Erfinder von der Suchmaschine Wolfram Alpha gelesen. Und ich, also Stephen Wolfram heißt er, glaube ich, und ich habe verstanden, dass es zwei konkurrierende Ansätze in der Forschung zur künstlichen Intelligenz in Anführungszeichen gibt.

Die einen sind eher so diese statistischen Herangehensweisen, das statistisch plausibel nächste Wort. Und das andere sind eher symbolische, also es nennt sich symbolische Ansätze, wo man versucht, die Frage in die Einzelbestandteile zu zerlegen, in Variablen zu zerlegen. Und nach diesem Ansatz arbeitet Wolfram Alpha.

Und wenn man jetzt die beiden Ansätze kombinieren könnte, dass man Jett GPT zur Vorsortierung, zum Verständnis, zum Analysieren des menschlichen Kauderwelsch, was da reinkommt, nutzt, dann aber an eine andere Technologie übergibt, die wirklich in Datenbanken Fakten heraus sucht, mir darstellt, was sie an meiner Frage verstanden hat, also die, was die essentiellen Aspekte der Frage sind, was sie da in Datenbanken herausgefunden hat und mir das als mögliche Ergebnisse inklusive Quellenangaben übergibt und meinetwegen dann ein Sprachmodell wie Jett GPT das wieder in einen harmonisch klingenden Satz umformuliert, dann wären das Ansätze, die ich durchaus interessant finde, wo ich mich gerne weiter mit beschäftigen möchte.

Ansonsten wissen wir halt einfach immer nie, was ist davon einfach frei erfunden und was davon ist so frei erfunden, dass es meiner Erwartung, also dass es auf meiner Sprachebene möglichst plausibel klingt.

[Axel Lindhorst]
Aber ist das wirklich so? Es ist nicht nur sprachlich plausibel, es ist auch inhaltlich plausibel. Es ist zu 90 Prozent, sagen wir mal korrekt, in dem Sinne, wie wir es als korrekt empfinden können, was dort rauskommt.

[Susanne Dube]
Ja, ich finde es auch sehr spannend, dass wenn man so bestimmte Fragen stellt, man kriegt ja schon den Eindruck, dass es ja nicht nur auf der Sprache ist. Also ich stelle ja inhaltliche Fragen an Jett GPT und kriege eine Antwort und in der Regel sind die korrekt und je länger die Texte werden und und je allgemeiner die Frage ist, umso wischi waschi, also allgemeiner und schwammiger wird das Ganze und dann kommen die Unkorrektheiten rein.

[Johannes Starke]
Genau, aber du kannst dir halt überhaupt nicht sicher sein und du kannst es auch fast nicht erkennen, was davon korrekt und was unkorrekt ist.

[Susanne Dube]
Nee, deswegen braucht es eine Prüfung, aber das ist so ein bisschen, vielleicht, ich habe vor kurzem, ich weiß nicht mehr, wo ich gelesen habe, war wieder in diesem Wust drin, aber tatsächlich einen interessanten Gedanken aufgefasst, wo jemand eben gesagt hat, es ist doch am Ende so, wir hatten, wir haben, wenn wir beispielsweise bei Google recherchieren, dann haben wir entweder Webseiten, wo wir wissen, da ist ein redaktionelles Netzwerk dahinter, da wissen wir, das sind geprüfte Daten, da wissen wir, das ist richtig und diesem Ergebnis vertrauen wir mehr, als wenn wir vielleicht irgendwo anders was finden, auf Twitter oder Facebook, wo jemand seine Meinung geäußert hat.

[Johannes Starke]
Und die Redaktion ist auch accountable dafür, also die kann ich zur Verantwortung ziehen und die kann ich kritisieren, wenn es falsch ist.

[Susanne Dube]
Genau und das ist vielleicht so dieses Ding, wo wir uns jetzt überlegen müssen, wenn wir mit einer KI wie ChatGPT sprechen, die jetzt so aufgebaut ist, wie ChatGPT gerade ist, wie werte ich die Aussagen von ChatGPT ein und ich würde sie vielleicht dann nicht so einwerten, wie ein Ergebnis eines redaktionellen Netzwerks oder ein geprüftes Information, wo ein Buch geschrieben wurde mit Lektorat und allen möglichen Sachen, dreimal geprüft, eine Doktorarbeit steckt da nicht drin, sondern da hat ein System Informationen zusammengesucht, die es logisch zusammensetzen kann, aufgrund von Algorithmen, die ich nicht verstehe, die klingen plausibel, aber das ist dann ungefähr so, als würde ich mich mit dir, Johannes, über Tomaten unterhalten.

Du würdest sicherlich auch sagen, die plausibel sind, aber ob die dann stimmen, weiß ich nicht, müsste ich noch mal nachprüfen. Also das ist vielleicht das, wo es die Aufgabe von uns ist, als Mensch im Moment noch tatsächlich zu sagen, ich prüfe das dann aber noch mal nach. Also ich glaube, jetzt im Moment kann ich das nicht als Wissensdatenbank nutzen.

Ich glaube, das hat aber auch keiner von uns so gesagt, sondern tatsächlich eher nur so zum Anträgern.

[Axel Lindhorst]
Aber Wikipedia ist auch nur eine Form von kollektiver Intelligenz in digitaler Ausprägung.

[Johannes Starke]
Aber die durchläuft ständig Fact-Checking und jeder dritte Wikipedia-Artikel, den du öffnest, ist angemerkt, dass hier noch was fehlt oder Aussagen missverständlich sind.

[Axel Lindhorst]
Und die Datenbasis für Chat-GPT ist für uns natürlich so ein bisschen Blackbox. Das ist natürlich ein Problem, aber warum sollte man nicht auch auf Datenbasen zurückgreifen, die auch Fact-Checking unterliegen oder die geprüft sind oder irgendwie zertifiziert. Oder natürlich auf alles, eben auf das Real-Time auf das gesamte Internet.

[Johannes Starke]
Wo wieder ganz neue Probleme mit entstehen. Selbstverständlich.

[Susanne Dube]
Aber kommen wir vielleicht zurück wieder zu unserem Thema Corporate Learning, wo wir da drin stecken in den Möglichkeiten.

[Johannes Starke]
Axel hatte vorhin noch einen zweiten Punkt genannt, auf den ich gerne auch noch eingehen möchte. An dem Dialogischen aufgehalten. Der zweite Punkt war die zweckgerichtete Aufbereitung, die du erwähnt hattest, Axel.

Und da stimme ich dir natürlich absolut zu. Also wenn wir Informationen in ein System geben und das System darin bestimmte Muster erkennt oder dir Vorschläge macht, wie der Stil verbessert werden kann. Also ich meine, wahrscheinlich die meisten von uns haben Deeple permanent offen.

Und für Übersetzungen oder aktuell neu auch für Lekturierungsleistungen, das als Werkzeug zu verwenden, da setze ich auch große Hoffnung mit rein. Und das geht so weit, dass, und das ist auch mal ein Vorschlag an euch, ob wir versuchen wollen, den Podcast im Nachgang mal durch Whisper, dieses Transkribierungstool von OpenAI zu jagen. Einfach nur, um es mal auszuprobieren.

Also wenn die Spracherkennung dafür sorgt, dass wir zum Beispiel Barrierefreiheit in unseren Angeboten viel leichter erreichen können, weil eben automatisch Transkripte, die nur geringer Nachbereitung bedürfen, angeboten werden. Das ist natürlich alles super. Also generell dieses ganze auch nervtötende Abschreiben von Texten.

Wenn das fällt und vereinfacht wird. Oder eben klar, das Aufbereiten in einfacher Sprache. Das sind alles Punkte, da geben wir ja die Sammlung Informationen vor und rein und nutzen das Tool einfach zum Sortieren und Vereinfachen, Strukturieren.

Auch wenn ich lernenden Feedback, was rein flutet, aufnehmen kann, nach Gemeinsamkeiten durchsuchen lassen kann. Wenn ich Workshop-Ergebnisse, die ganzen digitalen Zettelchen auf einem Whiteboard, die ich unglaublich lange erstmal clustern muss, bevor ich da ein bisschen draus mache. Das ist natürlich alles sehr vielversprechend, was da möglich ist.

[Susanne Dube]
Ja, also das finde ich tatsächlich auch wirklich spannend, das zu betrachten. Und tatsächlich würde ich da nicht nur über Barrierefreiheit nachdenken, sondern das ist ja auch die Vielfalt, die ich dann anbieten kann. Also ich habe letztens immer nicht die Geduld, mir einen Podcast von vorne bis Ende anzuhören.

Das ist ein bisschen peinlich, das als Podcaster zu sagen, aber das ist tatsächlich so. Und ich fand es total spannend, den ersten Podcast zu sehen, der tatsächlich seinen Text als Transkript angeboten hat. Und ich habe es dann durchgelesen.

Da bin ich ein bisschen schneller als beim Hören. Und das fand ich ganz, ganz spannend für den ersten Scan und habe es mir dann danach natürlich nochmal in Ruhe angehört, weil es ein spannendes Thema war. Und da diese Vielfalt reinzubringen, in beide Richtungen, finde ich spannend.

Also einmal in diese Richtung, das lesbar zu machen, aber in andere Richtungen, auch die Möglichkeit zu haben, Texte, die sonst nur gelesen werden könnten, in Soundfile umzuarbeiten und das andere hören zu lassen, die es nicht sehen können, finde ich genauso spannend. Und wenn wir jetzt im Sinne der Vielfalt unterwegs sind, wenn ich das dann verbinde, und da komme ich wieder zu dem, was ich auch gerade zur Achse gesagt habe, mit einem bildgebenden Tool, dann habe ich die Möglichkeit, Rapid Learning breiter aufzustellen, also für Menschen, die sich nicht trauen, sich vor die Kamera zu stellen, eine Möglichkeit zu geben, das dann mit einem Tool zu machen.

[Johannes Starke]
Kannst du den Punkt noch weiter erläutern? Den habe ich jetzt nicht nachvollziehen können.

[Susanne Dube]
Okay. Axel, du hast mir gesagt, du hast dieses Koloss... Irgendein Tool.

[Sprecher 5]
Kolossien.

[Susanne Dube]
Und ich habe ein anderes Tool ausprobiert. Und das Tool, was ich ausprobiert habe, hat Folgendes gemacht. Ich konnte mir ein Avatar auswählen.

Ich werde auch gleich sagen, warum ich das ganz kritisch sehe und gar nicht so super. Aber es ist eine Möglichkeit, die sich auftun wird. Und die wird sich in kurzer Zeit auftun.

Die ist schon da. Also, ich konnte mir ein Avatar auswählen. Und dann konnte ich einen Text schreiben.

Und ich konnte den Text auch anfangen zu schreiben und sagen, vervollständige mir diesen Text. Also, das hätte mir das auch weitergeschrieben. Und genauso hätte ich aber auch sagen können, ich gehe in ChatGPT, schreibe einen Text vor, lasse den noch finetunen auf eine bestimmte Zielgruppe oder ähnliches, kopiere den dort rein.

Und dann habe ich einen Knopf gedrückt. Und dann hat mir tatsächlich mein Avatar, den ich mir ausgesucht habe, den ich vielleicht auch hätte selbst generieren können, diesen Text gesprochen. Es klang nicht perfekt.

Und ich glaube, wenn wir alle damit überrollt werden, dann wird das irgendwann uns langweilig sein. Aber ich glaube, gerade wenn wir über das Thema Rapid Content sprechen, ist es eine Möglichkeit für Menschen, die vielleicht nicht den Anspruch haben, hochwertig didaktisches Lernmaterial zu erstellen, aber ihr Wissen schnell weiterzubringen. Ich sage mal, eine Art und Weise, über mehrere Kanäle mit vielleicht noch einem netten Gesicht, also noch ein bisschen angehübscht, das dann entsprechend rüberzubringen.

Ich sehe das nicht kritiklos, aber das ist eine Möglichkeit, die gerade da ist. Und wir sprechen über Möglichkeiten, die es für Corporate Learning gerade hat. Und das gibt es.

[Johannes Starke]
Das ist für mich eine absolute Dystopie, die du gerade beschreibst.

[Susanne Dube]
Es ist Realität, lieber Johannes.

[Johannes Starke]
Für Präsentationen, für Videos. Nein, da wäre ich mich mit Händen und Füßen gegen. Weil entweder sollen die Menschen selbst ein Video aufnehmen und wenn sie das nicht möchten, dann sollen sie einen Text schreiben.

Aber ich verstehe nicht, warum ich damit enorme Technik draufwerfen muss, um da irgendwie ein glattes Bildchen von einer Fake-Figur zu erzeugen. Was bringt mir das an Mehrwert für den Lernenden?

[Susanne Dube]
Also ich habe dieses Thema ausgewählt, weil ich da tatsächlich auch ein bisschen drüber nachgedacht habe. Denn ich habe ja im letzten Jahr mit Lisa den Podcast über Rapid Learning gemacht. Und das Setting, in dem wir da unterwegs sind, ist, dass wir tatsächlich Fachexperten helfen, ihr Thema lernbar zu machen.

Das heißt, wir helfen ihnen, eine Präsentation vorzubereiten, die sie nutzen können, um dann kurze fünf Minuten Lernvideos aufzumachen. Und die Fachexperten sprechen dazu. Viele dieser Fachexperten haben furchtbare Angst vor der Kamera.

[Johannes Starke]
Ist ja völlig legitim.

[Susanne Dube]
Ganz schlimmes Gestammel raus. Wo du dann denkst, das hätte man noch anders machen können. Wenn man da den Fachexperten das leichter macht, indem man so eine Software davor stellt, sehe ich das gar nicht so kritisch.

Aber, und jetzt kommt mein dickes Aber, ich glaube, dass die Glaubwürdigkeit leiden wird. Weil die Glaubwürdigkeit kommt ja darüber, dass der Fachexperte spricht. Und das ist vielleicht dann dieses Gegenstück, was man da sehen muss.

Also ich kann mir Settings vorstellen in Unternehmen, wo Menschen das nutzen werden. Und das ist eben nicht eine Dystopie, lieber Johannes. Ich habe diese Tools gesehen, die gibt es.

Das kannst du buchen.

[Johannes Starke]
Okay, dann ist es eine Realität geworden, eine Dystopie.

[Susanne Dube]
Also diese Möglichkeit gibt es, das zu nutzen. Ich weiß nicht, Axel, wie war deine Erfahrung damit? Du hast mir gesagt, du hast auch schon mit so einem Tool rumgespielt.

[Axel Lindhorst]
Ja, ich hätte es verlinkt, aber es war einfach nur eine Botschaft hier haushaltsintern, die ich als Beispiel aufgenommen habe. Aber ich kann einfach mit dem Tool auch noch mal was anderes machen. Das habe ich jetzt ja mal ausprobiert.

Das war allerdings, muss ich sagen, deutlich überzeugender als dein Beispiel.

[Susanne Dube]
Ja? Okay.

[Axel Lindhorst]
Weil es nämlich keine KI-generierten Charaktere waren, sondern echte Charaktere, deren Lippenbewegungen dann von der KI irgendwie simuliert wurden, beziehungsweise von Technologie. Vielleicht ist das gar nicht unbedingt KI.

[Susanne Dube]
Aber ich höre ja bei Johannes jetzt raus, dass er gerade das Fürchten kriegt, bei dem, was sie mir erzählen. Einer der Ausdruck, das Fürchten zu leiden. Wie geht es dir, Axel, damit?

[Axel Lindhorst]
Man stößt halt ab und zu auf Sachen, gerade im Bereich Audio, das ist für mich vorhin ein. Du hast gesagt, du kannst einfach aus was Geschriebenem was Gesprochenes machen. Ja klar, und dann kannst du eben auch was Gesprochenes daraus machen mit deiner eigenen Stimme, ohne dass du es selber sprichst, weil so ein Tool braucht halt nur ein paar Minuten Training.

Und dann reicht das schon, um das Ganze als Audio-File mit deiner Stimme auszugeben, die einigermaßen plausibel klingt. Und da denke ich schon, okay, ja klar. Aber das Thema Deepfakes, das gibt es ja nun auch schon seit einigen Jahren von Videos und von Audios.

Und ich glaube, da mit der Verfügbarkeit von Möglichkeiten wird auch die Sensibilität steigen. Und ich glaube, das ist einer der großen Kämpfe, die wir dann in den nächsten Jahren haben werden. Wie unterscheiden wir von künstlichen Intelligenzen, beziehungsweise vergleichbaren Technologien erzeugte Inhalte und Botschaften von realen Botschaften?

[Johannes Starke]
Also bis zur Deepfakes bin ich ja jetzt noch gar nicht gegangen mit meiner Kritik. Also da hast du natürlich völlig recht, da warten noch ganz andere Abgründe auf uns. Ich habe jetzt ja versucht, das mit den besten Intentionen zu betrachten, was du beschrieben hast.

Aber ich frage mich generell bei vielen Punkten, also auch, was dann alles immer so kommt an Softskills trainieren. Und ich brauche jetzt kein menschliches Gegenüber mehr. Ich habe da irgendwie die KI animierte Gegenüber, was mir direkt das Feedback gibt und so weiter.

Was vergeben wir uns da an Chancen? Da werfen wir Technik auf strukturelle oder gesellschaftliche Probleme, weil es braucht einfach nur ein menschliches Gegenüber, mit dem ich eine vertrauensvolle Kommunikation führen kann. Warum muss ich denn das mit einer Technik simulieren?

Und noch ein weiterer Punkt, den ich – ich habe eigentlich viele Punkte jetzt schon wieder – du hast, Susanne, das Rapid Learning Beispiel genannt. Und du hast einerseits gesagt, da kann ich mit einem Text anfangen zu schreiben, dann wird er mir weitergeführt.

[Susanne Dube]
Das kann ich tun. Ich muss es nicht tun.

[Johannes Starke]
Ja, genau.

[Susanne Dube]
Ich kann es tun.

[Johannes Starke]
Und dann das Zweite eben, dann wird mir so ein perfektes Avatar generiert, der dann vorträgt, was ich so sage.

[Susanne Dube]
Wenn ich das möchte.

[Johannes Starke]
Was ich viel, viel spannend finde.

[Susanne Dube]
Ich fand den nicht so viel perfekt, aber das ist egal.

[Johannes Starke]
Was wir, glaube ich, in der Rapid Learning Folge, wenn ich mich jetzt noch richtig erinnere, besprochen hatten, war ja auch, wie wertvoll der Aspekt der Erstellung von Rapid Learning Content für die fachliche Auseinandersetzung mit dem Thema ist. Insbesondere auch für die FachexpertInnen. Also, dass da einfach auch durch die fachliche Auseinandersetzung mit dem Thema etwas Neues entsteht, als wertvolles Nebenprodukt beim Generieren des Inhalts.

Und zum anderen, dass es ja so wertvoll ist, dass wir den Menschen, die Personen im Unternehmen erkennen. Aha, das ist jemand, der kann mir weiterhelfen. Das ist jemand, der steht für das Thema.

Da ist der menschliche Aspekt der Relevante viel, viel weniger, was da jetzt an fachlichem Input, Output herauskommt.

[Susanne Dube]
Also, sagen wir es mal so, also ich bin bei einer Sache mit dir. Die Frage ist, ist es diesen technischen Aufwand wert? Das kann man sich jetzt immer fragen.

Ist es das wirklich wert? Muss man das so machen? Aber was du gerade gesagt hast, diese Auseinandersetzung, die der Fachexperte mit dem Thema hat, die könnte er ja auch haben bei der Generierung des Textes.

Also, ich werde den Text nicht per se nur von der KI entwickeln lassen, sondern da muss es trotzdem, und das ist vielleicht auch die Aufgabe, die bei uns im Corporate Learning bleibt. Es muss reduziert werden. Es muss geguckt werden, was sind die Kernaussagen da drin?

Es muss ein bisschen sortiert werden. Es muss eine Gewichtung rein in den Informationen. Es muss vielleicht nochmal überhaupt geschaut werden, mit welchen Personas, mit welchen Zielgruppen habe ich zu tun für dieses Thema?

Was ist die Aufgabe da drin? Das heißt, die Auswahl der Inhalte und auch die Aufbereitung der Inhalte, die kann vielleicht KI unterstützt sein, aber die ist nicht voll KI da. Das heißt, ich brauche den Experten weiter.

Der hat seinen Austausch dann immer noch. Das Einzige, wo ich ihn vielleicht verschütze, und das sage ich jetzt mal so, ist sein Lampenfieber, nämlich sich vor die Kamera zu stellen und dann dort dazu sprechen. Und wenn ich jetzt weiter denke, und ich weiß gar nicht, ob das im nächsten halben Jahr kommt oder wann das kommt, und ich sage, ich könnte dann ein Bild von mir irgendwann einspeisen und dieses Bild redet für mich und ich muss nicht davor sprechen.

Dann sind wir aber ein bisschen bei den Surrogates, um wieder dieses Filmthema reinzunehmen, ist vielleicht dann auch nicht das Beste, aber ich glaube, es gibt Gedanken, die man machen kann. Und jetzt in dem Gespräch mit uns bin ich überzeugt davon, wenn ich jetzt die aktuelle Zeit und das Thema KI im Corporate Learning betreffend mir anschaue, glaube ich, dass wir im nächsten halben Jahr einen Zeitpunkt des Versuchens haben werden, vielleicht einen zögerlichen Zeitpunkt des Versuchens. Es wird viel passieren weiterhin und wir werden tatsächlich Sachen ausprobieren.

Und es wird spannend sein, nach dem halben Jahr nochmal dazu zu sprechen. Glaubt ihr, dass wir jetzt, wir haben über das dialogische Arbeiten, über das Texte exerpieren oder bearbeiten gesprochen, was wir haben, was die Möglichkeiten sind. Ich habe ein ganz böses Beispiel aufgetan, nämlich zu sagen, wir können WBTs und Videos auch mit KI erstellen.

Das ist auch noch nicht abgeschlossen, die Diskussion. Ich könnte jetzt noch eins aufmachen und sagen, was ist eigentlich mit adaptiven Lernsystemen, was haben wir da jetzt schon für Möglichkeiten? Von daher, Johannes, aber du sagst, das ist noch nicht abgeschlossen.

Wir müssen ein bisschen auf die Uhr aufgucken.

[Johannes Starke]
Genau, nur weil ich als Axel hatte vorhin das Beispiel aus der Musik gebracht oder aus der Vertonung gebracht, da fiel mir ein wunderbarer Vergleich ein, den ich gerade gestern gelesen hatte von Dave Cormier. Der hat Chat-GPT als Autotune for Knowledge beschrieben. Und er sprach mir so sehr aus der Seele, dass wir uns durch diese Unterstützung, die uns keine Quellen gibt, die uns den Shortcut gibt, dass wir uns so viel vergeben im Lernen und eben auch Aufbereitung gemeinsam mit FachexpertInnen bei der Erstellung von Content.

Wir vergeben uns das Recherchieren, wir vergeben uns das Einholen unterschiedlicher Perspektiven. Wir bekommen einen halb vorgekauten Text, den man so veröffentlichen kann, den man vielleicht auch noch überarbeiten kann, fair enough. Aber das ist eigentlich genau diese Funktion, die Autotune erzeugen.

Ich singe was schief und krumm in die Kamera ein. Ich muss mir eigentlich keine Mühe mehr geben, ins Mikrofon ein, weil das System pegelt meine Stimme an. Und ich muss den Bogen noch zu Ende spannen.

Wir vergeben uns da, in ein Thema tiefer einzutauchen, weil eben dieser Shortcut genommen wird. Aber das Ergebnis ist für die meisten, ja, so für Gebrauchstexte ist es vielleicht okay. Aber was jetzt Dave Korn mir noch nicht genannt hatte, was ich ganz spannend finde, wie sich die Musikindustrie erst nach einigen Jahren des Autotune-Einsatzes kreativ begonnen hat, mit den Möglichkeiten auseinanderzusetzen bis hin zum absoluten Überdrehen des Autotune-Reglers.

Und da, finde ich, wird es dann wieder spannend, wie wir solche Algorithmen auf eine kreative Art und Weise einsetzen, als Instrument einsetzen. Ich liebe solche völlig verzerrten Autotune-Stimmen, wenn eben ganz klar sichtbar ist, hier wurde an den Reglern gedreht, hier wurde die Technologie im kreativen Maße eingesetzt.

[Susanne Dube]
Also ja, bei Musik, ich gebe dir vollkommen recht. Also ich kann dem vollkommen folgen, was du mir da sagst. Ich glaube nur, dass in deiner Argumentation ein Fehler drin ist.

Weil das so tut, als ob, wenn ich ein Tool nutze, was mir den Sprecher stellt und ein Tool nutze, was mir vielleicht den Text mal vervollständigt, dann wird es mir den inhaltlich gar nicht vervollständigen können, weil ich rede immer noch von einem Sprachmodellierungssystem, das kein Faktenwissen vielleicht hat in dem Moment. Das heißt, es geht schlichtweg darum, dass der Text vielleicht gerade gezogen wird. Das heißt aber nicht, dass ich mich nicht vorher damit auseinandersetzen muss.

Das heißt, dass diese Auseinandersetzung mit dem Thema beim Fachexperten oder auch vielleicht bei mir nicht da ist, dass die didaktische Vorarbeit nicht gemacht werden muss. Ich glaube, schlechter Content, der schlecht überbracht wird, der wird vielleicht schlecht bleiben. Aber wenn ich mich immer noch hinsetze und didaktisch darüber nachdenke, was soll drin sein, wie baue ich das Ganze auf, wie bette ich das Ganze ein, wenn ich das versuche zu unterstützen, dann ist es mir schlichtweg einfach eine Hilfestellung.

Und dann sehe ich das gar nicht so dramatisch, wie du das siehst. Ich stimme dir aber zu, wir probieren gerade alles Mögliche aus und es ist nicht alles gut, was wir tun. Es ist wirklich nicht.

Es gab doch früher diese kleinen Bildchen bei PowerPoint. Ich weiß gar nicht mehr, wie die hießen.

[Johannes Starke]
SmartArts.

[Susanne Dube]
SmartArts, genau. Und plötzlich haben alle Leute SmartArts in die PowerPoints reingebracht, bis wir gemerkt haben, oh Gott, das ist der größte Quatsch. Und so ähnlich ist es jetzt vielleicht auch mit KI, dass wir sagen, wir werden damit zugemüllt, gerade mit schnell erstelltem Content, den Leute ganz, ganz toll finden.

Und dann merkt man, okay, und was ist jetzt eigentlich die richtige Nutzung davon? Und da stimme ich dir zu. Das passt dann vielleicht so ein bisschen wie bei den Autotunes in der Musik.

[Johannes Starke]
Jetzt, wo du es gesagt hast, fällt mir natürlich auch gerade auf, also ich will dir ja die Hand reichen, dass der Autotune-Vergleich auch nur so halb gar ist, weil ich habe ja selbst vorher gesagt, wenn mir Diepel ein Lektorat angedeihen lässt und mir alternative Begriffe und so weiter auf meinen holprig formulierten Text gibt, dann ist das ja auch eine Art Autotune, aber in dem Fall finde ich es durchaus hilfreich, weil ich wieder sage, ja, ich habe den Content erstellt und lasse meine handwerklichen Mängel nicht unterstützen, die zu beheben, indem ich mir alternative Begriffe und so weiter suche.

Was ich tatsächlich in dem Fall auch noch super spannend finde, das ist ein Argument von dem besagten Wharton-Professor, der sagt, in der Vergangenheit, oder aktuell ist es leider oft noch so, dass eben bedingt durch Mängel sich eloquent auszudrücken und so viele akademische Arbeiten von Ghostwritern geschrieben werden, dass wohl in Kenia die größte Industrie am Ghostwriting existiert, wo dann mit Eingabe von entsprechenden fachlichen Häppchen dazu die Texte erstellt werden.

[Susanne Dube]
So furchtbar, oder?

[Johannes Starke]
Natürlich ist es schlimm. So, und jetzt sind wir auf dem Next Level, dass in Kenia die Content-Flagger sitzen, die das Rohmaterial, was in Open-AI-Tools reinfließt, bewerten und sortieren.

[Susanne Dube]
Ja, ich habe aber gehört, das wird ja von den Social-Media-Anbietern auch gemacht.

[Johannes Starke]
Was es ja nicht besser macht. Ich meine nur, die Scheißarbeit wird ausgelagert an Menschen, die dann darunter zu leiden haben, dass es diese Tools gibt.

[Susanne Dube]
Da reißt du wieder ein neues Thema auf und da rennt uns die Zeit davon und da sind wir auch ein Stück weit weg vom Corporate Learning. Aber lass uns gerne darüber sprechen, schreiben im Nachgang. Ich würde gerne, es sei denn, Axel, dich haben wir jetzt gar nicht mehr zu Wort kommen lassen.

Wolltest du noch was ergänzen?

[Axel Lindhorst]
Fast schon etwas, was wie ein Schlusswort klingt. Was sich in der beruflichen und privaten Praxis sedimentieren wird, wird sich mittelfristig erst zeigen. Was aber bleibt mittelfristig, nach meinem Gefühl und offenbar auch nach deinem und auch nach Johannes Gefühl, ist die menschliche Verantwortung, der Faktor menschliche Verantwortung in vielen Bereichen.

Schon in der Auswahl der Tools, in der Qualität des Inputs, in der Art der Fragestellung, in der Kuration, in der Qualitätssicherung natürlich. In der Aufbereitung des Outputs. Es sind noch sehr viele Aufgaben auch um die künstliche Intelligenz herum übrig.

Und sehr viele Aufgaben mit hoher Verantwortung für die Menschen, die damit umgehen.

[Susanne Dube]
Genau. Und jetzt habe ich tatsächlich, und das wäre dann quasi die Zukunftsfrage, die darauf aufbauen würde, auf dem, was du jetzt gesagt hast. Wir müssen lernen, damit umzugehen.

Jetzt stellen wir uns eine Welt vor in 10, 15 Jahren, wenn wir das vielleicht gelernt haben. Wir würden uns die vorstellen, aber ich glaube, wir schaffen es nicht mehr, denn wir reden jetzt gerade schon eine Stunde. Das würde mir zeigen, dass es vielleicht Sinn macht.

Sagt mir mal beide, ob das stimmt. Ist es sinnvoll, dass wir uns in einem halben Jahr oder vielleicht wirklich im Oktober nochmal treffen und nochmal rückblicken und vielleicht diese Zukunftsfrage für uns nochmal angucken. Welche Chancen liegen da drin?

Oder vielleicht, wenn wir merken, oh Gott, ist alles vorbei, hat sich erledigt, gab richtig Prozesse, ist alles kaputt.

[Axel Lindhorst]
Das Thema bleibt natürlich heiß, das bin ich sicher. Ich würde es interessant finden.

[Susanne Dube]
Ja, bin ich dabei.

[Johannes Starke]
Gut.

[Susanne Dube]
Ja, dann würde ich sagen, Johannes, du darfst auch noch ein Schlusswort sagen. Ich glaube, Axel hat ja jetzt sein Schlusswort schon fast gehabt, oder?

[Johannes Starke]
Genau. Also ich versuche auch versöhnlich und positiv zu stimmen. Also ich bin auf jeden Fall sehr dankbar darüber, wie ChattGPT die Diskussion, was Lernen ist, was Wissen ist, was Intelligenz ist, was Dialog ist, neu entfacht hat.

Ich freue mich sehr darüber, dass ChattGPT das schulische und universitäre Bildungssystem erschüttert und hoffe, dass von diesen Erschütterungen, die da gerade im Gange sind, auch einiges an Lernen in Unternehmen rüberschwappt. Dass wir uns eben viel verstärkt damit auseinandersetzen, was können wir als Menschen, was ist die Qualität unserer Arbeit. Und ich hoffe sehr, dass wir Wege finden, dass wir diese Technologie, die sich gerade stark entwickelt, auf eine Art nutzen können, dass sie im besten Falle unabhängig von großen Tech-Konzernen, dass sie auf eine transparente Art und Weise, auf eine Art und Weise, wo wir Einfluss nehmen können, die wir verstehen können, die datensparsam ist, die auch klimagerecht ist, weil das ist ja auch nochmal ein Punkt, den wir noch gar nicht angesprochen haben, ohne Ausbeutung von Menschen und so weiter und so fort, dass wir Wege finden, damit umzugehen.

Und die Möglichkeiten sind da. Viele von diesen Tools basieren auf einer Open-Source-Basis. Und ja, wir dürfen Hoffnung haben, dass die weitere Geschichte jetzt nicht durch die großen Tech-Konzerne zu schnell gesettet wird.

[Susanne Dube]
Du schaffst es mit einem Schlusswort wirklich in mir so viele Gedanken anzuträgern, über die ich weiter sprechen könnte. Das zeigt mir aber tatsächlich, und das ist so eine Hoffnung, die ich habe, wir in nächster Zeit bestimmt noch ein ganz paar Mal darüber reden werden, vielleicht nicht zwingend im Podcast, aber uns sicherlich weiter damit beschäftigen. Und da freue ich mich drauf, weil ich wirklich glaube, dass sich in neuen Möglichkeiten auftun und mit neuen Möglichkeiten auch immer, ich sag mal, Themen, mit denen wir uns ernst auseinandersetzen müssen, damit es nicht in eine falsche Richtung geht.

Ich glaube, dass wir heute nur ein ganz, ganz kleines bisschen angekratzt haben zu dem, was man alles bereden konnte. Ich hätte noch so viele Ideen im Kopf, aber eine Stunde ist wirklich lang genug. Deswegen danke, danke an euch beide und ich buche euch für Oktober.

[Johannes Starke]
Der zweite Ansatz hat sich auf jeden Fall gelohnt. Lass es uns fortsetzen.

[Susanne Dube]
Genau. Und ich freue mich da auch auf die nächsten Sachen. Und falls jemand da draußen, falls jemand von den Zuhörerinnen und Zuhörern seine Meinung kundtun will und uns da Rückmeldung nochmal geben will und vielleicht auch bei den Ideen, die wir haben, weiterhelfen will, diskutiert gern mit uns.

Wir freuen uns auf euch und damit sage ich danke fürs Zuhören, danke euch fürs Gespräch von Herzen und bis zum nächsten Mal. Tschüss.

[Axel Lindhorst]
Danke und tschüss.

[Susanne Dube]
Übrigens, habt ihr uns schon abonniert? Das geht überall dort, wo ihr eure Podcasts am liebsten hört. LernLust gibt es alle drei Wochen neu und wir freuen uns auf euer Feedback und vor allem auf den Austausch mit euch.

Wie ihr uns erreicht? Nun, ihr könnt uns auf Podigi schreiben oder ihr folgt dem LernLust Podcast auf Mastodon. Natürlich gibt es uns auch als echte Personen auf Mastodon Twitter oder LinkedIn.

Sagt uns also, was euch gut an unseren Podcasts gefällt und wo wir noch besser werden können. Und wenn ihr nicht diskutieren, sondern einfach nur bewerten wollt, dann geht das auch auf Google Podcasts oder einem Portal eurer Wahl. Wie ihr auch entscheidet, wir hören uns wieder bei der nächsten Folge des LernLust Podcasts.

Verwandte Artikel