Die „Sesamstraßenfragen” der Forschung

Transkript anzeigen

00:00:02: Forschungsimpuls

00:00:04: der Wissenschaftspodcast.

00:00:20: Und damit herzlich willkommen zu einer neuen Folge

00:00:23: Forschungsimpuls, wo

00:00:24: wir uns nach zwei quantitativ geprächten Folgen heute mit qualitativer Forschung auseinandersetzen.

00:00:31: Und das tue ich nicht mit irgendwem, sondern mit Dr.

00:00:34: Susanne Friese.

00:00:35: Susanne und ich kennen

00:00:36: uns aus einer gemeinsamen Publikation und

00:00:38: ich hatte selber die Möglichkeit, vor, ich glaube, zwei Jahre in einem KI-Seminar bei ihr sitzen zu können, um eben meine Forschung auch von KI inspirieren zu lassen und von ihr zu lernen.

00:00:51: Sie hat neben ganz vielen anderen Stationen unter anderem bei Max Planck geforscht,

00:00:57: ist Expertin

00:00:58: für das Thema Methodologie,

00:01:00: also

00:01:01: die mit Todenlehre hinter den Methoden, also auch eine derjenigen Personen, die eben empirische

00:01:08: Sozialforschung

00:01:09: tatsächlich weiterentwickeln und in ihren Publikationen genau das eben.

00:01:16: Das Ganze hat sich jetzt niedergeschlagen in einem Start-up, was sie gegründet hat, auch schon vor einiger Zeit.

00:01:23: Das heißt, sie ist tatsächlich

00:01:25: eine

00:01:26: absolut

00:01:26: spannende Expertin, um sich über KI-gestützte qualitative Forschungsmethoden zu unterhalten.

00:01:34: Und insofern würde ich sagen, gehen wir rein in das Gespräch mit Dr.

00:01:38: Susanne Friese.

00:01:46: Liebe Susanne, herzlich willkommen im Forschungsimpuls.

00:01:51: Danke schön, dass ich heute hier bei dir sein darf.

00:01:54: Ich freue mich total, ich bin richtig on-fire, kann man sagen, denn du hast, als wir uns kennengelernt haben, das Thema Veränderung in der qualitativen Forschung, ja, mir so richtig vorgestellt tatsächlich in so einem, ich glaube, zwei-tages-Workshop, glaube ich.

00:02:09: Und da möchte ich direkt auch mal einsteigen.

00:02:12: Wir haben uns damals ja in dieser Rolle kennengelernt, du warst die Mentorin und ich saß da drin und habe versucht zu lernen, was denn deine Sicht darauf ist, wie sich qualitative Forschung ändert.

00:02:21: Da kommen wir gleich zu.

00:02:23: da so richtig einsteigen.

00:02:25: Es gibt so viele Stationen in deiner Vita.

00:02:27: Also wenn man auf Link in durchgeht, dann wird einem angezeigt, wollen sie noch mal die nächsten zehn Stationen anzeigen.

00:02:32: Es ist super.

00:02:33: Du warst Forscherin bei Max Planck.

00:02:36: Du bist Gründerin.

00:02:37: Du bist in der Wissenschaftszene aktiv.

00:02:39: Was würdest du denn sagen, was macht dich aus?

00:02:41: Was sind so die die Korners da uns, die man über dich wissen muss?

00:02:48: Ja, die Korne, das ist eine interessante Frage.

00:02:50: Ich wollte jetzt eigentlich, würde ich das ein bisschen anders beantworten, und zwar die ganzen, dieser ganze lange Weg, oder wo du sagst, diese ganze dritte, die du zurückverfolgen kannst, die kann ich mal zurück ins dritte Semester, als ich angefangen habe, zu studieren.

00:03:08: Und da die Vorlesung empirische Sozialforschung.

00:03:12: Die hat mir gefallen.

00:03:15: Ich wusste, ich wollte studieren.

00:03:16: Die war so richtig, was ich studieren wollte.

00:03:18: Ja, man hat ja mal studiert.

00:03:20: Ich habe angefangen mit Haushalt- und Ernährungswissenschaften.

00:03:24: Das war das, was das war.

00:03:26: Also dieses empirische Sozialforschungsamt hat mich interessiert.

00:03:29: Und ich weiß gar nicht, qualitativ war noch gar nichts in Deutschland.

00:03:33: Und das war erst mal alles da noch quantitative Methoden.

00:03:36: Aber da habe ich auch meine ersten Jobs gehabt, so als studentische Hilfskraft.

00:03:39: Da habe ich glaube ich auch so ein paar Interviews geführt, aber Analyse und so noch nicht gemacht.

00:03:44: Und die Stationen, die haben mich dann irgendwann nach Amerika geführt.

00:03:48: Ein Austauschprogramm zwischen Baden-Würnberg und Oregon State University gelandet.

00:03:55: Habe ich da auch noch mehr noch Statistik gemacht und Multivariate verfahren und so weiter.

00:03:59: Und für meine Masterarbeit habe ich dann gedacht, Ja, da muss ich doch mal Interviews machen.

00:04:05: Also das hat jetzt auch ne Zürich gemacht, eine Umfrage gemacht, aber es ging um imposives Kaufverhalten, da macht es schon noch Sinn, mal mit den Leuten zu sprechen, also mit ihrem extremen Fall dann auch Kauf sucht.

00:04:14: Und da habe ich zum ersten mal Interviews geführt und im Nachhinein eigentlich erst ein Kurs gemacht in qualitativer Soziologie.

00:04:22: Wie gesagt, jetzt musst du das vielleicht auch noch mal angucken, wie das funktioniert.

00:04:26: Und das passt noch in das Masterprogramm rein und der Kurs war sehr philosophisch aufgehangen.

00:04:32: Und da hat viel diskutiert und so weiter, aber das gibt, wie man das dann letztendlich macht, das war da immer noch nicht so deutlich, also auch die Analyse.

00:04:40: Da hat der Professor John Zadell eingeladen.

00:04:43: Den Entwickler vom einen der ersten Programme zur computergeschützten qualitativen Datenanalyse, The Astrograph.

00:04:49: Und er hat seinen Astrograph vorgestellt.

00:04:51: Damals noch DOS, ja, von Zeile drei bis Zeile sieben, hängen wir diesen Code dran.

00:04:57: Und das war so dieses Aha-Erlebnis, Aha, so funktioniert es.

00:05:02: Und auch zu sagen, wenn man auch so im Privat und so weiter so organisieren und strukturieren, das liegt mir irgendwie, das wurde mir in die Wiege gelegt sozusagen.

00:05:11: Und deswegen habe ich das wahrscheinlich auch angesprochen, also dieser strukturierende Ansatz auch diskutieren.

00:05:17: Und da hat John nochmal einen Vortrag gehalten.

00:05:20: Und dann nach diesem Vortrag, also auf der Uni, in so einem Campus, bin ich zum Hingegangen.

00:05:25: Ich durfte arbeiten nach dem Master.

00:05:27: Damals wusste ich schon, dass das ging.

00:05:29: Und da habe ich schon gefragt, ob er jemals braucht, der für ihn arbeitet.

00:05:33: Und er braucht gerade jemand.

00:05:36: So, und da wird sich dann ein Bestiegen in die computergestützte qualitative Datenanalyse und habe eigentlich das auch die letzten dreißig Jahre gemacht.

00:05:44: So, das ist so der rote Fahren durch die vielen Stationen, die in Beck, also ob jetzt an der Uni oder dann als Consultant oder bei Max Blank als Forschender, also die Die Computer gestützte Analyse hat mich immer begleitet und ich habe dann auch immer Workshops gegeben, was für Leute ich ausgebildet habe, wie man gute Kuliersysteme aufbaut.

00:06:03: Und ich habe dann die Sachen, die ich geschrieben habe, eigentlich immer die Übersetzung von Methodologie.

00:06:10: Das steht ja in den Methodenbüchern, da steht da immer drin.

00:06:12: Ach und übrigens, das kann man jetzt auch mit dem Computer machen.

00:06:16: Aber wie man das mit dem Computer macht, ist dann da also nicht zumindest nicht im Detail drin.

00:06:20: Und dann habe ich eben Sachen geschrieben über Grounded Theory Computer gestützt, oder Diskursanalyse, oder Thematic Analysis.

00:06:28: Ja, also immer diese Übersetzung, okay, wie mache ich das mit Atlas, oder Max Gutier oder Envivo, also versuch das auch ein bisschen neutral zu halten.

00:06:35: Natürlich ist viel auch mit Atlas gearbeitet in meinem Leben, da drei Ausgaben meines Buches geschrieben, Qualitative Data Analysis bis Atlas TI.

00:06:43: Naja, und dann kam KI und... Da war ich gerade in einem Zeitpunkt, also auf meinem Weg zu sagen, indem ich mich ein bisschen neu erfunden habe und bzw.

00:06:55: noch auf der Suche war.

00:06:56: Und das habe ich, ja, das ist natürlich auch eine neue Technologie, es war ja auch mit der computergestützten Analyse hat mich fasziniert, habe ich angefangen auszuprobieren und deswegen bin ich jetzt in der Gründung gelandet, aber der rote Faden ist immer noch da, deswegen habe ich das erzählt im dritten Semester in die Umsetzung von Methodologie.

00:07:17: auf eine digitale Möglichkeit oder digitale Technik.

00:07:21: Und das ist das, was ich im SKI jetzt aufmache, eben zu gucken, wo sind unsere Methoden oder Methodologien?

00:07:26: Was kann die neue Technologie?

00:07:28: Das kann sie nicht.

00:07:29: Und wie kann ich das am besten übersetzen?

00:07:32: Tja,

00:07:34: wenn das mal kein Forschungsimpuls war im wahrsten Sinne des Wortes.

00:07:38: Ja, Wahnsinn.

00:07:39: Und wenn du das so sagst, dass die qualitative Forschung da so ein bisschen Neuland war oder neuartig war, wie muss ich mir das vorstellen?

00:07:50: Da war also deinsprechend quantitative Forschung vorherrschend.

00:07:53: Und gab es da denn einen Grund zu, dass ich das dann gewandelt hatte?

00:07:57: Gab es da plötzlich mehr Forschung, die entstanden ist in Pew-Review-Journals?

00:08:01: Oder was hat diesen Wandel beflügelt?

00:08:03: Oder war das die Technologie selber?

00:08:07: Ich will nicht sagen die Technologie, sondern dass die Forschung bemerkt haben, wir müssen vielleicht auch mal wieso, weshalb, warum Fragen stellen.

00:08:15: Ich sage mal, schon auf Deutsch können wir sagen, die Sesamstraßen fragen.

00:08:18: Ja, da passt das ganz gut, wieso, weshalb, warum.

00:08:20: Ja, weil eben quantitative Forschung kann eben jetzt nicht alles beantworten.

00:08:25: Die kann natürlich einen Überblick geben, da kann ich natürlich generalisieren über eine Gesamtbevölkerung, aber dann habe ich irgendwelche Zusammenhänge, die auch statistisch sind.

00:08:33: Ja, und warum habe ich jetzt die Statistik im Zusammenhang?

00:08:37: Da setzt die qualitative Forschung an und ich denke, dass haben auch immer mehr Leute dann verstanden, dass wir auch diese Art von Forschung brauchen.

00:08:44: Und zwar interessanterweise eben dann auch, wenn man in die unterschiedlichen Disziplinen guckt, weil ich habe eigentlich immer interdisziplinär auch gearbeitet.

00:08:53: Jede Disziplin hat diesen Kampf zum Teil selber ausgefochten zwischen Quali und Quanti.

00:08:59: Zum Teil gibt es dieses, das vielleicht immer noch, aber natürlich genug Leute, die jetzt sagen, wir brauchen beides.

00:09:04: oder es gibt ja auch Mix-Message, ist ja dann auch ein proper leerer Ansatz.

00:09:09: Aber ich habe das in verschiedenen Disziplinen, dann eben auch in den Journalen, wo es dann wirklich methodische und logische Beiträge gab, als ich war in der Konsumforschung letztendlich, also die Journal of Consumer Research in den Achtzigerjahren, Anfang Neunzigerjahre wurde Diskurs geführt.

00:09:21: und dann in anderen Politikwissenschaften und so weiter, kann man ja mit eigenen Disziplinen gucken, wann da die Diskussionen geführt sind.

00:09:30: Manche sind auch eher quantitativ geblieben und manche sind ... Ja, also wenn ich in der Politikwissenschaft Deutschland gucke, diese eher quantitativ ausgerichtet und in anderen Ländern nicht eher qualitativ, aber auch qualitativ.

00:09:44: Also es gibt auch ein bisschen länderspezifische Unterschiede da.

00:09:48: Aber ich denke, ich würde mal nicht so sagen, dass die Technik, sondern dass die Forschenden gemerkt haben, ja, wie können wir jetzt die statistisch signifikante Verbindung erklären und dass es dazu andere Methoden braucht.

00:10:00: Das ist richtig spannend, muss ich sagen, so im Sinne auch von Genese der Wissenschaften.

00:10:04: Ich interessiere mich immer so für Wissenschaftshintergründe oder halt auch Entwicklung von Wissenschaftsdisziplin.

00:10:10: Wenn ich es dann an die Wirtschaftsinformatik denke, wo ich dann promoviert habe, das versucht das gerade, was du erklärt hast, darauf so anzuwenden.

00:10:18: Ich glaube, das stimmt.

00:10:20: Also, das klingt total faszinierend, muss ich sagen.

00:10:23: Ja, jetzt haben wir mal gesagt, wir haben uns in dieser Dortmunder Methoden-Werkstatt kennengelernt.

00:10:26: Also, ich war sicherlich einer von diesen, die dann bei dir in die Lehre gegangen sind und versucht haben, dann nochmal so ein bisschen das Niveau für dieses Forschen mit diesen Methoden ja so ein bisschen zu verbessern, von dir zu lernen.

00:10:41: Und, klar, wir holen jetzt nicht dieses ganze Format nach, aber ich wollte mal einmal diesen Werbeblock dafür machen, sozusagen.

00:10:47: Also, du bietest in verschiedenen Formaten ja solche Seminare an, an wen adressiert sich das typischerweise?

00:10:54: Das ist ja ein ganz spannendes Feld, was man auch nicht unbedingt, wenn man nicht aus dieser Science-Bubble kommt, so kennt.

00:11:00: Was sind das für Formate sozusagen?

00:11:03: Zum einen hat sich der Workshop, an dem du teilgenommen hast, auch inzwischen in zwei Workshops aufgesplittet.

00:11:11: Also ich glaube, du warst wirklich dabei beim ersten dabei, wo es so zwei Veröffentlichungen gab über KI und qualitative Datenanlöser, so ein paar Paper so über ethische Überlegungen gab es vielleicht auch schon.

00:11:22: Jetzt gibt es ja noch hunderte, weiß ich nicht, aber es gibt auf jeden Fall über hundert.

00:11:28: Auf jeden Fall.

00:11:28: Es gibt es viel, viel mehr.

00:11:30: Und jetzt habe ich jetzt einen Kurs.

00:11:31: Da geht es erst mal um KI Basics und einen über KI und qualitative Datenanlöser.

00:11:37: Und eigentlich würde ich auch den Leuten immer vorschlagen.

00:11:40: Es war aber nicht immer so, erst Basics zu machen und dann das andere aufbauen.

00:11:44: Wenn der Basics, was ich da erzähle, ist, Wie muss ich wissen über Large Language-Modelle, wie die so ticken?

00:11:52: Also ich will jetzt mal nicht sagen.

00:11:56: Persönlich kann ich das nicht vermenschlichen, aber doch so ein bisschen, wir müssen wissen, was sie können, was sie nicht können, warum die... Was haluzinieren bedeutet oder nicht, was technisch etwas ganz anderes eigentlich, aber warum die uns sich immer die gleiche Antwort geben und was viele Leute dann gleich sagen, deswegen kann ich KI nicht benutzen, aber das sagen, wir müssen lernen, wie die funktionieren.

00:12:21: Genauso, wie ich früher gelernt habe, die Leute beigebracht habe, wie sie vernünftiges Codeesystem aufbauen, müssen wir jetzt lernen, wie LLMs funktionieren.

00:12:28: Und dann können wir sie ja eigentlich erst anwenden.

00:12:31: Und dann aufbauen.

00:12:32: kann man dann sagen, okay, wie kann ich sie jetzt für die qualitativ Datenanalyse einsetzen?

00:12:37: Ja, also das ist sozusagen die Weiterentwicklung.

00:12:41: und die zweite Hälfte deiner Frage war, bin unterrichtig, zum alles von... Von Masse, Studierende, Doktoraten bis Professoren hin, also alle, die Interesse haben, aber auch aus dem Anwendungsbereich.

00:12:56: Ich habe zum Beispiel auch einen Workshop mal vor Kurzem gemacht für Auditoren, die auch qualitativ.

00:13:04: arbeiten und jetzt neulich auch das waren auch ja also evolutionsbereich auch evolutions und monitoring die auch qualitative forschung machen oft natürlich auch unter zeitdruck die natürlich auch nach wegen gucken wie geht das jetzt schneller und auch vielleicht auch eben auch in bereichen wo leute erst gar keinen kudieren angewendet haben auch nicht in der vergangenheit weil sie gar nicht die zeit dazu hatten wo ich sage da geht es das auf jeden fall Vielleicht nicht, vielleicht die gleiche Zeit, weil sie nicht mehr Zeit immer auf jeden Fall kriegen, jetzt bessere Qualität als was vor, vor die Möglichkeit war, eben oder eben auch Leuten, die im Bereich Consulting unterwegs sind, die da auch klassisch Interviews führen, Textdaten haben.

00:13:43: Und ja, was machen wir jetzt damit?

00:13:45: Ja, das muss man vielleicht ganz kurz auch einmal quasi einordnen, für all die das nicht kennen.

00:13:51: Also, wenn du das zu erklärst, ist das absolut transparent.

00:13:54: Aber ja, wir waren ja alle dann mal in der Industrie oder in der Wirtschaft auch unterwegs, oder sind es noch und so.

00:13:58: Und muss ja sagen, dieses Thema qualitative Forschungsmethoden, das hat einfach ganz viele Anwendungsfelder.

00:14:03: Das ist ja auch das, wo Studierende immer fragen, sagst du, wofür brauche ich das?

00:14:06: Oder wie werde ich das später vielleicht ein?

00:14:09: Das ist natürlich ein Feld, das kann man einfach ganz vielseitig auch im späteren Job... für Forschung, für Ermeinungsbilder, für semantische Analysen einsetzen.

00:14:22: braucht das einfach in der Wirtschaft und in der Verstehen unserer Welt.

00:14:27: Jetzt haben wir etwas Tolles gemacht, also aus unserem, man sieht das natürlich nicht, wenn man zuhört, aber aus unserem Workshop ist hier unser Artikel hervorgegangen.

00:14:34: Da haben wir uns in ein paar Seiten mal überlegt, wie verändert sich denn jetzt die qualitative Forschung mit künstlicher Intelligenz und wir haben das versucht mal so ein bisschen runterzubrechen auf ein paar wenige Seiten.

00:14:47: Aber ich würde gerne auch bevor wir dazu kommen, eine Stufe vorher.

00:14:50: Einsteigen, nämlich die klassische qualitative Forschung.

00:14:54: So ein paar Begriffe hast du gerade schon fallen lassen, codieren und so weiter und wir können jetzt nicht ein mehrwöchiges Seminar empirische Sozialforschung nachholen.

00:15:03: Aber was wäre denn, wenn man keine Ahnung hat, so dein kurzer Pitch?

00:15:07: Was machte eigentlich die qualitative Forschung hauptsächlich aus?

00:15:12: Wie war ungefähr der Workflow in wenigen Sätzen?

00:15:14: Wie würdest du das, ich immer mehr erklären, da vielleicht wenig andere von hat?

00:15:22: Zum einen ist es immer der Ausgangspunkt, wir müssen jetzt mal mit Leuten reden.

00:15:27: Wenn wir jetzt eine Frage bogen, wo Leute irgendwelche Sachen ankreuzen, stimmen sie zu, ja oder nein, auf einer Skala eins bis fünf, da kriegen wir nicht die Antworten, die wir haben wollen, wenn wir jetzt mit Leuten reden müssen.

00:15:40: Das ist sozusagen Grund Nummer eins, qualitative Forschung zu machen, eben wenn man ausfinden will.

00:15:47: wieso, weshalb, warum jemand irgendwas macht oder getan hat, also evaluieren oder eben auch Dinge, die vielleicht noch zu plan sind.

00:15:58: Also es gibt irgendwie ein Problem, wie löse ich das jetzt?

00:16:01: und dann muss ich erstmal erfassen, genauer im Detail, was ist das Problem eigentlich, um eine Lösungsansätze zu entwickeln.

00:16:09: Also es geht eigentlich von dem Punkt aus, wir haben Probleme aus den Lösungsansätzen bis hin auch zur Evaluation.

00:16:14: Es hat schon mal stattgefunden, dass evaluieren wir.

00:16:17: Jetzt.

00:16:18: Und so die Sprache das wissen.

00:16:19: Also das wäre erstmal zu finden, okay, was ist eine gute Fragestellung, die ich qualitativ beantworten kann.

00:16:26: Und dann sind das eben in der Regel, redet man mit den Leuten oder macht Gruppen interviews.

00:16:31: Das geht auch.

00:16:32: Und dann muss man diese Daten analysieren.

00:16:34: Man kann auch manchmal auch Dokumentationen hinzufügen.

00:16:38: Also das ist auch wieder Text.

00:16:39: Ja, man hat immer auf jeden Fall sehr viel Text.

00:16:42: Ja, da hat man der fünf, sechshundert sein Text.

00:16:44: Und dann muss ich da irgendwie... muss ich da Sinn draus machen.

00:16:47: Also muss ich daraus, also die Daten letztendlich in anderen Worten analysieren.

00:16:53: Und da kann man, ja, man kann das irgendwie querlesen und ein paar Zitate rausziehen.

00:16:59: Das ist, denke ich, was für die Leute, die jetzt das nicht sehr akademisch gemacht haben, in der Vergangenheit auch gemacht haben, über ein Gruppeninterview.

00:17:05: Und dann hat man ein bisschen mitgeschrieben, ein paar Zitate rausgezogen.

00:17:07: Das kam gleich in die PowerPoint und fertig.

00:17:10: Ja, quick and dirty.

00:17:11: Ja, also jetzt kann man eben mehr machen, eben auch mit KI.

00:17:15: Und wenn man das etwas analytischer oder systematischer gemacht hat, dann hat man den Text durchgelesen und geguckt, okay, hier geht es um Strategien, hier geht es um Emotionen, hier geht es um Barrieren, hier geht es um Hindernisse und hat da einen Schlüsselwort dran gehängt und mit Differenzierung und so weiter und so fort.

00:17:34: Aber dann, wenn man jetzt mit dem Computer gearbeitet hat, konnte man dann sagen so, Gibt mir jetzt mal alles, wo Leute über Strategien gesprochen haben und da konnte man das rausziehen.

00:17:43: Und da hat man eben nur eine Teilmenge gehabt und dann konnte man das einfacher verstehen.

00:17:46: Und dann konnte man auch Teilmenge rausziehen von, was haben die Leute mit fünf Jahre Berufserfahrung gesagt und die mit zwanzig und da konnte man das vergleichen.

00:17:54: Also hat man sich das Rundtage gebrochen, um die Daten besser zu verstehen, weil wir nicht fünfhundert Seiten auf einmal verstehen können.

00:18:01: Und das ist der Prozess des Codierens, den ich angesprochen habe.

00:18:06: Und das ist jetzt im Prinzip das, was heute vielleicht viele in so einer Software wie MaxQDA oder sowas machen.

00:18:13: Also bitte nicht einfach in irgendeinem Schreibprogramm oder so.

00:18:15: Das führt zu nichts.

00:18:17: Sondern man braucht halt irgendwie die Möglichkeit innerhalb des qualitativen Datenstams in diesem Corpus seine Daten, ja man könnte sagen, zu taggen oder zu verschlagworten.

00:18:27: Und dann kann man ja schon direkt zahlreiche Analysen fahren.

00:18:30: Also ich kann versuchen daraus irgendwie so eine Taxonomie abzuleiten.

00:18:33: Das hat man häufig oder vielleicht Wortheut... Ich kann das weiter untersuchen, inhaltlich vom Text.

00:18:40: Aber das ist halt alles richtig viel Fleißarbeit.

00:18:42: Wenn man das mal gemacht hat, dann weiß man einfach, das ist wirklich ein riesiger Workload, der einen da als forschende Person... Ja, heim sucht letztlich oder vor diesem Workload sitzt man dann.

00:18:53: Ja, und jetzt haben wir KI und jetzt kommen wir mal dazu.

00:18:57: Was war dann im Prinzip Ausschlaggebend?

00:19:00: Also ich kann mir vorstellen, dass ganz naheliegend natürlich ist, die Language-Modelle.

00:19:04: Das kennen auch, glaube ich, alle Hörerinnen und Hörer jetzt aus den letzten Folgen, was die so grundsätzlich drauf haben und so ein bisschen die Details dazu auch schon.

00:19:11: Ja klar, die beschäftigen sich mit Text.

00:19:13: Also da kann ich in der Forschung natürlich erstmal mitarbeiten.

00:19:16: Aber du hast dann ja relativ schnell auch gesagt, wir brauchen was Spezielles.

00:19:19: in der qualitativen Forschung.

00:19:20: Es reicht jetzt nicht, dass wir einfach sagen, so sagen wir es ja auch in unserem Artikel, man nimmt jetzt bitte nicht seinen Datenstamm von seinen zwanzig Interviews oder so und klöppelt die in ChatGPT rein und gibt womöglich noch alle sensitiven Datenpreis oder sowas, sondern es braucht natürlich jetzt einen neuen Workflow.

00:19:36: Und da hast du natürlich dir mit als Erste wahrscheinlich überhaupt überlegt, wie könnte denn so ein Workflow für qualitative Forschung auf der Basis von large language Modellen aussehen?

00:19:46: Lass uns doch da mal einen Blick gerade.

00:19:52: Ich habe halt, als die LGBT rauskam, das war für mich dann eben auch so der erste Anknüpfungspunkt, ich meine generative KI gab es schon länger für die technischen Leute, aber so für den Gemeinmenschen.

00:20:09: Und dann wurde das ja auch integriert in Programme wie Max Kulia Atlas und so weiter.

00:20:14: Das habe ich mir angeguckt und war davon nicht sonderlich überzeugt.

00:20:18: Und dann kamen erste Programme raus, die direkt ... KI basiert waren.

00:20:24: Da wurde ich eingeladen, die zu testen, die wurden von ganz klassischen Start-up-Situationen von irgendwelchen Ingenieuren, wurde das gebaut und die suchten dann eben Leute, die wussten, wie dieser Analyseprozess geht, kannst du da mal ausprobieren und ganz uns Feedback geben.

00:20:38: So, da hatte ich die Möglichkeit, diese Programme auszuprobieren und habe dann gemerkt, wir brauchen gar nicht mehr kodieren.

00:20:46: Wir können jetzt wirklich anstatt eben zu kodieren, den der KI Fragen stellen.

00:20:52: Weil wenn man sich das auch mal überlegt, das hatte ich eben auch gerade schon angedeutet, wir haben fünfhundert Seiten Text, wir können das nicht auf einmal verarbeiten mit unserem Gehirn.

00:21:01: Deswegen hat der Mensch das Runter gebrochen in kleine Einheiten, die er sozusagen das ganze Text wird runtergebrochen, klein zerstückelt und dann bauen wir das wieder auf sozusagen nach Themen.

00:21:12: Also wir bauen von unten nach oben auf, weil wir das anders sonst nicht verarbeiten können.

00:21:17: Die KI braucht das aber nicht.

00:21:19: Die AIKA-Fünfhundertseiten, also jetzt inzwischen mit Stichwort Kontextfenster, manche können zweihundertseiten, manche können fünfhundertseiten verarbeiten.

00:21:27: Aber sagen wir mal, bleiben wir mal bei zweihundertseiten, sind wir irgendwo in der Mitte.

00:21:32: Aber auch nur ein ganzes Interview.

00:21:33: Die kann ein ganzes Interview auf einmal lesen.

00:21:36: Die muss nicht... Der ist das Zeug runterbrechen und dann von unten nach oben gucken.

00:21:40: Was sind jetzt für Themen hier drinnen?

00:21:41: Nee, die kann das auf einmal sagen.

00:21:43: Ja, und da können wir also ganz anders umgehen.

00:21:45: Das heißt, wenn wir jetzt die KI haben, ist das von unten nach oben zu arbeiten, drehen wir das Ganze um und können von oben nach unten arbeiten.

00:21:52: Und auch eben andere Autoren, die auch ähnliche Ansätze entwickelt haben wie ich.

00:21:57: Wir machen alle das gleiche.

00:21:58: Wir fangen von oben nach unten an, weil das die Stärken der KI ausnutzt.

00:22:02: Ich bin das immer wieder am Testen, kommt ein neues Modell, dann frage ich mal wieder, und ich kann mir KI dazu bekommen, Daten zu kodieren.

00:22:11: Es ist wirklich die KI zu irgendwas Zwingen, was sie eigentlich gar nicht gut kann.

00:22:15: Ja, dann denkt man ja, die Montelle werden immer schlauer und so, aber das ist ja letztens wieder mit GPT-Fünfe ausprobiert und das kommt dann auch wieder an Grenzen mit Input-Output-Fenstern und so weiter.

00:22:27: Die KI ist dann mal gesagt, ja natürlich kann ich das line by line code, die kann ich alles für dich machen.

00:22:31: Und nach sechzehn Setzen sagt sie, jetzt habe ich keinen Platz mehr, also den Text auszugeben.

00:22:39: Das muss man eben, ich sage das nicht einfach so, sondern ich probiere das auch ständig aus oder teste auch wieder.

00:22:44: Also in gutem popperschen Sinne versuche ich mich auch zu falsivizieren, weil ich eben sage, in dreißig Jahren kodiert kein Mensch mehr.

00:22:50: Und dann haben wir es vielleicht auch mit KI hingekriegt, Dinge auszuzählen.

00:22:54: Das ist im Moment noch, ja, mit klassischen Programmen, wie Max Gutier-Atlas kann ich natürlich die Code zählen.

00:22:59: Manche finden das auch wichtig.

00:23:02: Large Language-Modelle sind Large Language-Modelle und können eben nicht gut zählen.

00:23:07: Und wir müssen sie irgendwie dann mit Peiten verbinden, also wenn wir das machen wollen.

00:23:11: Aber

00:23:12: ja.

00:23:13: Also das ist so, das eben aus dem Experimentieren raus, dann erkannt, wir können jetzt eigentlich, und da war ich eben dann ganz begeistert, eigentlich können wir zu den Wurzeln zurück von zu dem, was qualitative Forschung ist, nämlich mit den Daten arbeiten, Fragen an das Datenmaterial stellen, was man dann letztendlich auch macht, wenn man kodiert, aber eben erst mal muss man kodieren und dann kann man es rausziehen und dann kann ich Fragen stellen.

00:23:35: Jetzt kann ich... Einfach die KI fragen.

00:23:38: Wo reden die über Strategien?

00:23:39: Welche Benefits werden genannt?

00:23:40: Welche Vor- oder Nachteile oder welche Probleme?

00:23:45: Dann muss ich gar nicht erst noch kudieren in welchen Kontexten, weil die KI das immer mit rauszieht.

00:23:50: Weil die das Interview als Ganzes liest.

00:23:53: Und die Antworten, die kommen, die sind eben auch nicht so klein gestückte Segmenten, wie wir es beim Kudieren haben, sondern die sind immer im Kontext.

00:24:00: Also die Antworten sind auch ganz anders.

00:24:03: Das muss man letztendlich ... selber erleben, um das auch zu sehen.

00:24:06: Und ich denke, die Leute, die das schon machen, die sind alle begeistert.

00:24:11: Aber da sind wir noch nicht, dass alle das so kopiert haben.

00:24:13: Viele hängen auch wirklich an ihren Alten.

00:24:16: Das haben wir jetzt dreißig Jahre lang so gemacht.

00:24:18: Ich kann das nicht loslassen.

00:24:21: Diese Revolution oder Evolution hast du ja quasi schon einmal dann gesehen.

00:24:25: Ich war von Quantitativ zu Qualitativ.

00:24:27: Also jetzt sehen wir vielleicht noch mal so eine Evolutionstufe in der Qualitativen Forschung.

00:24:32: Vielleicht noch mal ein bisschen technischer werdend.

00:24:35: Du hast das gerade erklärt, dass es Grenzen gibt in der Nutzung von sowas einfachem als End-User-Tool wie Chat GPT.

00:24:45: Es ist nicht damit getan, das schreiben wir auch in unserem Artikel ganz deutlich, dass ich halt einfach irgendwie ein Projektchen da aufmache oder einfach meine Daten reinschmeiße, der Anspruch an der Forschung, an Riegerosität, Objektivität und Verifizierbarkeit ist natürlich höher.

00:25:00: Das heißt, es musste ja jetzt eigentlich ein Abstraktionslevel geschaffen werden und da kommen wir vielleicht so zu deinen jüngsten Cornerstones in deiner Vita, um darüber nachzudenken, wie können wir uns mit diesen Lodge-Language-Modellen in innerhalb des Forschungsworkflows jetzt nochmal so aufstellen, dass ich eben ein nachvollziehbares Ergebnis habe, dass ich dahin wieder zurück kann, dass ich vielleicht auch in einer gewissen Deterministik wieder mit den Daten operieren kann, dass vielleicht auch das schon gesagt mit mehreren Forschenden vielleicht tun kann.

00:25:32: Und das hat dich ja dann zu einem im Prinzip ganz neuen Schritt geführt.

00:25:39: eben als ich angefangen habe zu experimentieren und auch gefragt wurde, mit anderen Tools zu experimentieren, dann eben von meiner Perspektive, dass ich eben jetzt nicht aus der Software Ingenie bin, sondern aus der Qualität mitodenecke komme, das anders sehr, dann gesagt, um das umzusetzen, also wieder dieses, ne, ich übersetze Methodologie in Technik, muss ich mal ein eigenes Tool bauen.

00:26:00: und so bin ich dann jetzt sozusagen in die Welt der Start-ups gewandert und Gründerin geworden und habe angefangen, also jetzt, ja, in die Reise ein eigenes Tool zu bauen und sind auch da schon wieder verschiedene Schritte.

00:26:15: Aber so hast du es schon angeschnitten, also einmal Datensicherheit, also wenn Chatchi Bidi, dann schicke ich mal alles nach Amerika.

00:26:25: Auch wenn es anonymisiert ist und so weiter, aber wer hat die Datenhoheit.

00:26:29: Und wenn man ein eigenes Tool baut, liegt die Datenhoheit, also bei dem, der das Tool auch rausgibt, auch wenn man mit LLMs arbeitet.

00:26:37: und verbindet das über so eine sogenannte API.

00:26:40: Schnittstelle kann dann auch sagen, wo Daten verarbeitet werden sollen und so weiter.

00:26:43: Das ist immer so ein spezielles KI-Tool, was man baut.

00:26:47: Da kann man das immer so bauen, dass es sicherer ist und Datenschutzbestimmung entspricht und eben Daten nicht in die Hände von den Anwendern geht, sondern eben letztendlich, na ja gut, in dem Fall jetzt bei uns liegt dann die Datenhoheit.

00:27:06: Aber wir versuchen, das eben unsere Datenschutz rechtlich auch gut abzuwickeln.

00:27:12: Das Zweite ist, wenn man jetzt mit so einem Tool baut, dann baut man ein sogenanntes RAC System ein.

00:27:19: Das heißt Betrieved Augmented Generation.

00:27:22: Das heißt, die Fragen, die man stellt, gehen nur über die Daten, die man hoch lädt.

00:27:27: Es wird also nicht halluciniert.

00:27:31: Man kann das mal austesten, aber man merkt es schon mal, die KI gesucht.

00:27:36: finde ich das wirklich in den Daten und dann sagt sie aber auch, formuliert das dann auch, so eventuell vielleicht könnte man daraus ziehen das, also wenn nicht so wirklich was drin ist.

00:27:45: und wenn man aber eine Frage stellt, die absolut nichts mit den Daten zu tun hat, kriegt man auch einen Nein.

00:27:50: Ja, und wobei dann eben allgemeine Chatbooks anfangen zu hallucinieren und sie irgendwas erfinden.

00:27:55: Und das andere ist eben auch noch, was wir auch eingebaut haben, ist eben, dass man auf Basis eine Antwort in den Originaltext reingehen kann, das markieren wir dann gelb.

00:28:04: wo die KI ihre Antworten hergeholt hat.

00:28:07: Also, dass die Nachvollziehbarkeit da ist, also, dass die Bühne kritisieren, Transparenz nach Vollziehbarkeit.

00:28:13: Ja, und dann, ja, dann hat mich der Leute immer gefragt, ich habe für immer viel erzählt, wie ich mir das so vorstelle, ja, gibt es irgendwas, was wir referenzieren können.

00:28:22: Oder gibt es schon Leute, die mit diesem Tool gearbeitet haben.

00:28:25: Also das aktuelle Variante des Tools heißt es Queue in Science.

00:28:28: Ich würde dann einfach mal sagen, mir folgen, gucken, in welche Richtung sich das weiterentwickelt.

00:28:36: Aber bis natürlich was veröffentlicht ist, wo Leute dieses Tool anwenden und bis es durch die mühlende Publikation geht, wird es noch ein bisschen dauern.

00:28:43: Aber was ich jetzt geschrieben habe, ist ein methodischer Rahmen, würde ich mal so sagen, um das Ganze dass es nach bissenschaftlichen Kriterien abläuft und man nicht einfach nur so rumchattet, sondern es sind vier Schritte im Modell.

00:28:59: Am ersten Schritt Datenvertraut machen, das durchlesen, da kommt man nicht drum rum, sonst kann man nicht, weiß man nicht, was man für Fragen stellen muss.

00:29:08: Jetzt muss ich ja mit Fragen an das Serienmaterial herangehen.

00:29:11: So, und jetzt hatte ich schon gesagt, wir drehen das Spiels ja um, wir fangen von oben nach unten an.

00:29:16: greift dir ein Thema raus, was du jetzt weiter explorieren willst und überlegt dir ein Set von Fragen.

00:29:22: So, und dieses Set von Fragen könnte ich jetzt auch Nikola ergeben.

00:29:25: Oh, der macht auch ein Chat.

00:29:27: Ja, und dann können wir auch dann, da geht es dann auch um Vergleichbarkeit.

00:29:31: Es geht um Transparenz, also dass man die Sets von Fragen pro Thema anstatt ein Codebuch, hängt man die halt in Anhang, ja, dass es auch jemand anders nachvollziehen kann.

00:29:40: So, wenn wir jetzt im Team arbeiten oder zu zweit Dann Schritt drei ist eben dann in den Dialog gehen, nachfragen stellen und so weiter und dann synthesieren.

00:29:50: Man muss dann eben nach jedem Chat anfangen, das auch zusammenzufassen.

00:29:55: Wir hatten, also was auch schon Leute sagen, ja also hundert Seiten von Chats, da muss man es nicht zukommen lassen.

00:30:01: Problem beim Kudieren war immer, ich habe es den Code Sumpf genannt und andere haben das den Coding Trap genannt, dass Leute irgendwie Zweitausend Codes hatten.

00:30:10: Ja, wenn ich irgendwie warte, bis ich fünfhundert Seiten Text mit Chat generiert habe, ist auch zu spät.

00:30:15: Also die Probleme, ja, muss immer gucken, das sind immer ähnliche Probleme, die wir früher auch hatten.

00:30:22: Das ist jetzt nichts Neues mit KI, aber deswegen muss man entsprechend gegenwirken.

00:30:26: Gut, beschreibende Synthese, Nikola schreibt eine, ich schreibe eine, die können wir vergleichen.

00:30:30: Und auch gucken, kommt bei mir ein bisschen was anderes raus, habe ich einen anderen Spektrum im Sinne von Intercoder Agreement.

00:30:36: Wir haben jetzt keine Codes mehr, aber wir können jetzt Synthesien vergleichen.

00:30:39: Also, das ist mal ganz kurz, nur mal zu streifen, aber das ist so die Überlegung, was ich CA to the Power of AI nenne, Conversational Analysis with AI, um da ein methodisches Rahmenwerk zu geben, wo man strukturell systematisch arbeiten kann.

00:30:58: Und das ist das, was im Moment gerade ... Ja, auf dem Weg ist zur Publikation.

00:31:03: Es gibt es als Pre-Print und ich bin gerade dabei, das auch zu veröffentlichen.

00:31:09: In der Journal, gerade die Reviewer-Comments zurückbekommen, muss ich jetzt Antwort darauf geben und dann kommt hoffentlich auch bald raus.

00:31:16: Und man muss ja dazusagen, Du hast das ja schon mal geschafft.

00:31:19: Also du hast diese ältere Software Atlas sozusagen ja mehrfach genannt, wo du auch, kann man sagen, spitzen Autorin bist mit zigtausend Zitationen.

00:31:29: Also ganz klar kann man Google Scholar sich wunderbar anschauen.

00:31:32: Das heißt, du bist ja quasi auf dieser Meta-Ebene der Methodologie unterwegs.

00:31:37: gewesen schon immer ja und hast dazu geforscht und publiziert und dich jetzt zu diesem Schritt dann halt vor einigen Jahren entschlossen und das weiter getrieben.

00:31:45: also warum soll das nicht klappen?

00:31:46: die spannende frage die ich mir dann gerade gestellt habe beim zuhören ist ja wie ist denn jetzt das feedback aus?

00:31:52: quasi aus deiner Bubble, also aus der Methodenperspektive gibt es da schon was, denn ich bin ja letztlich nur Nutzer.

00:32:00: Also wenn ich jetzt quasi Q Insights nutzen würde und reiche damit jetzt in den typischen Wirtschaftsinformatik Journal irgendwas ein, dann kommt womöglich zurück Q Insights, tolle Idee oder da kommt zurück, was ist das denn?

00:32:12: Also die sind ja darauf angewiesen, dass in deiner Forschungsbubble du jetzt wieder damit auch Fuß fasst und entsprechend Reputation ja auch damit wieder erlangs.

00:32:22: Gibt es da schon erste Erkenntnisse?

00:32:24: Das würde mich echt interessieren.

00:32:28: Es gibt halt erste Leute, die damit arbeiten und ich bin ja gerade dabei auch mit David Morgan, ein Buch herauszugeben und zwar, ja das sieht man jetzt natürlich auch nicht, aber vielleicht kennt es jemanden, Die ersten digitalen Programme gab wie Max-Guliard, Class in vivo und so weiter.

00:32:57: Unser Buch heißt jetzt KI-Gestützte Qualitative Datenanalyse, also auf Englisch, Theory Method Practice.

00:33:03: Und da ist jetzt eben dann auch ein Artikel von der Forschungsgruppe, die jetzt sitzen in Bochum.

00:33:10: Sportwissenschaften, die da dann auch eine Publikation zu Q&Site zum Beispiel.

00:33:15: Also da kommt dann jetzt so nach und nach was.

00:33:18: Aber ich höre es natürlich auch von Doktoranden, die dann sagen, ja, wir sind gezwungen zu, also wir müssen jetzt publizieren und wenn das noch so neu ist, ja, dann ist natürlich die Gefahr, dass man Reviewer hat, entweder trifft man Reviewer, die das schon verstehen und das sagen ja, das macht alles Sinn und andere, die das dann ablehnen.

00:33:38: Also ich würde immer sagen, Also, zum einen hoffe ich, dass mein Artikel oder in dem methodischen Rahmen bergt, was ich jetzt dann veröffentlicht, dass es Leuten hilft, dann haben sie auch natürlich eine Referenz, die sie angeben können.

00:33:50: Aber ich denke, um auch Reviewer zu überzeugen ist, wenn sie dann wirklich Transparenz sagen, was sie gemacht haben, eben auch, wie gute Kriterien eingehalten werden, weil dann, gut.

00:34:02: Man hat das nie in der Hand, was da so ein Video sagt, aber zumindest ja, wenn man es gut argumentiert, hat man auch noch die Chance, dass dann niemand das hier mal nicht nein sagen kann.

00:34:11: Das sagen wir mal so, ja.

00:34:13: Ja, das klopfe ich mal gerade in meine Reviewer-Walle.

00:34:16: Ja,

00:34:17: macht das.

00:34:19: John for Electronic Market.

00:34:21: Wenn man da halt Artikel eingereicht bekommt, die einfach schwach sind in der Argumentation der Vorgehensweise, dann ist es ja auch... egal in welchem Methodenspektrum man sich da aufgehalten hat.

00:34:34: Es ist oftmals tatsächlich bei den, sagen wir mal, schwächeren Artikel einfach schlecht argumentiert und nicht gut dokumentiert, wie vorgegangen ist.

00:34:43: Also ich finde es schon sehr gut, wenn man einfach das, was du gerade erklärt hast, so die letzten

00:34:47: zehn Minuten,

00:34:48: das mal niederschreibt, mit Quellen belegt, wieso, weshalb, warum bin ich so vorgegangen und das natürlich auch über die Länge eines Artikels durchhält, sich darauf wieder zurückzuberufen und das nicht vergisst.

00:34:58: Also mein Lieblingsbeispiel ist immer Wenn ich eine Abschlussthesis lese und vorne steht dann dringend so was wie ich nutze Meiring für die Datenanalyse oder sowas und dann drücke ich immer so aus Spaß, Steuerung F und suche nochmal nach Meiring und gucke ob das Wort nochmal vorkommt oder nochmal eine Quelle von Meiring oder ein Stück Software oder eine Forschungsdatenbank oder sowas.

00:35:20: und es kommt doch auch immer wieder vor, dass das komplett Und das ist dann natürlich etwas, das kann man leicht heilen, indem man das umsetzt, was du gerade erklärt hast und das entsprechend gut dann einfach dokumentiert.

00:35:31: Also viel mehr ist es ja nicht.

00:35:32: Ich muss mich an dieses Rezept artig ein bisschen halten.

00:35:36: Okay, also was du bräuchtest, sind entsprechend jetzt die Fachartikel, die das nutzen.

00:35:40: Also das ist jetzt der Aufruf, nutzt you insights, das macht einfach total Sinn.

00:35:44: Es ist natürlich eine schöne Evolutionsstufe.

00:35:47: jetzt zu der qualitativen Forschung, wie sie vielleicht bisher erhändisch war mit manuellem Kodieren und es ja auch tatsächlich nicht einfach nur im blauen Dunst, sondern es gibt jetzt schon erste Artikel dazu und es entwickelt sich einiges.

00:36:01: Geht das denn hin, so ein Blick in die Zukunft, mal kurz gerichtet zu sagen, was wird so sagen, wie entwickelt sich jetzt die

00:36:07: qualitative Forschung?

00:36:08: Was sind vielleicht nächste Schritte, nächste Entwicklungen, wo auch künstliche Intelligenz vielleicht noch stärker jetzt diese Art zu Forschung verändert?

00:36:20: Ja, also ich hatte das schon angedeutet, meine These, ob sie dann Wirklichkeit wird, das sehen wir dann, aber ich sage, in dreißig Jahren kudiert kein Mensch mehr.

00:36:31: außer eben vielleicht noch so ein paar Vereinslite noch, die das nicht aufgeben könnten.

00:36:38: Also ich zum einen denke ich mal, ich rede ja auch wirklich, wenn ich schreibe im anderen Artikel auch von dem Paradigmenwechsel.

00:36:45: Und wir haben, es ist jetzt nicht so wie in Naturwissenschaften, wo ein Paradigma ein anderes ablöst, sondern es laufen immer noch viele Paradigmen auch nebeneinander her.

00:36:54: Aber ich denke, dass das Kudierparadigma, also wenn Leute sich daran bewegen, dass es kleiner wird und Die Leute, die jetzt nachkommen, also die Wissenschaftler, die jetzt dann sozusagen auch die irgendwann mal KI-natives sind sozusagen, die fragen sich ja dann auch, wie sollen wir uns jetzt hier hinsetzen und kudieren, wenn das viel einfacher ist.

00:37:19: geht.

00:37:19: Und natürlich müssen sich die Methodenbücher anpassen und so weiter und so fort.

00:37:23: Das natürlich auch.

00:37:23: Deswegen ist das nicht eine Sache, die jetzt in zwei, drei Jahren passiert, sondern es dauert ein bisschen länger.

00:37:29: Aber für die Leute, die also kodieren, muss man ja auch lernen.

00:37:32: Das ist ja nicht so, dass das das einfachste der Welt ist.

00:37:35: Also vernünftig in den kodierenen Ansatz zu arbeiten, das muss man auch lernen.

00:37:40: Und gerade wenn man die Irgendwann war sowieso KI auch dändig benutzt und auch diesen dialogischen Ansatz gut, den muss man eben methodisch anwenden.

00:37:49: Aber diese Art und Weise, wie man KI umgeht und je mehr Leute daran gewöhnt sind, dann übernehmen sie das ja auch viel, viel einfacher.

00:37:58: Und das ist, ich denke, zum einen eben Leute, die ein bisschen technikaffin sind oder interessiert sind an neuer Technologie, aus meiner Generation, also David Morgan, mit dem ich jetzt das Sagebook publiziere, Also kurz vom Rentenalter ist jetzt nicht so, dass das nur alles junge Leute sind.

00:38:16: Aber eben, dass junge Leute das sowieso eher adaptieren.

00:38:20: Und ja, sie ist schon da rauslaufen wird.

00:38:25: Also man sieht es ja auch bei Max QDA, dass sie ein Zwei-Produkt auf den Markt gebracht haben, Tailwind mit dem auch und nicht mehr kudieren muss.

00:38:31: Ich glaube, die haben auch schon die Zeichen der Zeit irgendwie erkannt, dass es zumindest parallel läuft und meine Vorhersage ist, dass das QDA ein Auslaufmodell.

00:38:41: ist, und wie sagt man das irgendwann vielleicht auch mit künstlicher Intelligenz hinkriegen, auch so Mixed-Messet-Ansätze zu fahren.

00:38:49: Und ja, und jetzt, was ich so mit Krieg Kuckner les, natürlich immer so auch ganz allgemein, was so gerade passiert, gut, das eine ist... Endlich ein Open Source Schweizer Modell, also ein Open Source Modell aus Europa, aus der Schweiz, die das gerade rausgebracht haben.

00:39:06: Vielleicht noch nicht so gut wie die Topmodelle, aber das ist ja vielleicht auch nur eine Frage der Zeit.

00:39:12: Also da entwickelt sich zum einen eben auch was, also aus datenschutztechnischen Gründen, also auf jeden Fall auch für Europäer einfacher zu verwenden.

00:39:24: oder eben sich eben weniger abhängig zu machen, das einfach auch anpassen zu können.

00:39:28: Also wenn es Open Source ist, kann man ja da eher ein Fein-Tuning machen und so weiter, also eher das noch anpassen an qualitative Forschung.

00:39:35: Und das andere ist auch, Modelle mit multimodalen Daten zu trainieren, um auch Modelle da zu verbessern, weil wir ja am Ende des Internets gekommen sind, was die Trainingsdaten angeht.

00:39:47: Also aber das ist jetzt auch noch mal... enttrennt er jetzt nicht direkt mit qualitativer Forschung, was zu tun hat, aber eben, wo man doch immer auch die, dass die Modelle besser werden, indem wir ihnen nicht nur Text geben, sondern auch Bild geben und Video geben und so weiter.

00:40:01: Und das sich dann, das vielleicht auch wieder durchschlägt, auf Auswertung von Bildern und Video und so weiter.

00:40:07: Also was dann wieder auch, was einen Effekt auf die qualitativen Forschung hat.

00:40:11: Weil das sind auch neben Textdaten auch Daten, die qualitativ ausgewertet werden können.

00:40:17: Ja, du sprichst natürlich mit dem Modellen, was sehr interessant ist, das ist ja der Stichwort.

00:40:22: Digitales Souveränität.

00:40:23: Das ist hier zum Beispiel in der Folge mit Leonhard Kugler von Zendes ausführlich diskutiert worden.

00:40:29: Ja, darauf warten wir.

00:40:29: Das brauchen wir vielleicht für ein scheißer Modell.

00:40:31: Vielleicht kommt ja auch noch was aus Deutschland.

00:40:33: Ich meine, teugen Sie ein B, haben wir ja zum Beispiel von Frau Nova schon.

00:40:36: Mal schauen, wie sich das entwickelt.

00:40:38: Ja, du hast grad schon so ein bisschen Appelle auch genannt.

00:40:40: Ich versuch zum Schluss immer so rauszukitzeln, so einen Gedanken, der vielleicht auch für die Forschenden, vielleicht auch die, die jetzt grad in so eine Abschlussarbeitsphase hineingehen.

00:40:51: in der Doktorarbeit sind oder an so einem Punkt im Leben, wo sie sich also quasi neu damit beschäftigen oder vielleicht versuchen da einzutauchen.

00:40:58: Was wäre denn dein Appell, wenn man jetzt vielleicht heute anfangen möchte, sich mit qualitativer Forschung auseinanderzusetzen und KI nutzen will.

00:41:06: Und ich sage nochmal mit dazu, wie wir das ja auch in dem Artikel geschrieben haben, es ist halt nicht, dass die Arbeit weg ist, sondern es ist ja ein ganz anderer Zugang.

00:41:13: Was wäre es, vielleicht schließend nochmal so, dein Appell, was sollte man sich vor Augen rufen zum Thema qualitative Forschung künstlich intelligent?

00:41:26: Ja, zum einen eben zu kapieren, wie die ladschlängende Modelle ticken, wie ich da anfangs schon gesagt habe.

00:41:35: immer dann auch überlegen, ja, wir wissen jetzt, die sind so und so.

00:41:40: Also genau so weit ich das mal übertrage, ich weiß jetzt irgendwie, ich habe eine Freundin, die ist ganz schüchtern und dann weiß ich vielleicht, wie ich damit umgehen muss.

00:41:49: oder ich habe eine... Jemand anders oder ich weiß jetzt, ich will irgendwas von irgendjemandem, in dem es heute so negativ ist.

00:41:57: Aber wir wollen ja, das ist von der KI, dass sie uns irgendwie helft.

00:42:00: Aber dann müssen wir uns entsprechend verhalten, bzw.

00:42:02: wir müssen auch da die Kenntnis zu haben.

00:42:03: So ein bisschen, nicht ein Menschenkenntnis, sondern LLM-Kennnis.

00:42:07: Und die können wir eben nur bekommen, indem wir das anwenden, egal wo.

00:42:12: Also nicht nur in der Forschung, sondern... Also vernünftig anbinden, ich jetzt sagen jetzt K.I.

00:42:17: schreibt mal meine Ausarbeit, das funktioniert auch nicht so gut, ja.

00:42:21: Aber eben auf der Erinnerung dann schon zu versuchen und ohne jetzt, man muss da jetzt nicht irgendwelche, ich denke auch, man muss kein Promtingenieur sein, also dieses... Lernen, wie ich am besten mit der KI kommuniziere, ist so ähnlich, wie wir gelernt haben, zu googeln oder eben Suchanfragen zu schreiben in Browser.

00:42:39: Und da sind manche Leute auch immer noch schlecht, die dann sagen, ich finde immer nix, ja, ich finde nix.

00:42:45: Und dann setzt man sich selber mal zwei Minuten dran und sagt, da, hier, da, da, da, guck mal, ja, und die dann, wie sie wär's denn du das jetzt gemacht, ja.

00:42:51: Und genau das gleiche muss man jetzt mit KI machen.

00:42:54: Und dass man dann weiß, wie man mit der KI kommuniziert und auch durchaus mal andere LLMs ausprobieren, weil mit Mit Gemini redet man anders als mit Entropic Claude oder mit dem Schweizer Modell weiß ich es auch noch nicht, das muss ich jetzt auch noch mal testen.

00:43:08: Aber das ist immer eine andere Art und Weise zu kommunizieren und das lernt man nur, indem man es macht.

00:43:14: Und das wäre so das Appell macht es überall, wo es sinnvoll einbzubenden ist.

00:43:19: Also wir müssen ein bisschen Umwelt denken, also nicht beschwach sind oder es gibt genügend Dinge, wo man es auch sinnvoll.

00:43:24: anwenden kann.

00:43:26: und so lernt man damit umzugehen.

00:43:27: und dann ist es wahrscheinlich irgendwie second nature.

00:43:30: wenn man dann sagt ja ihr werdet das jetzt auch in der forschung an dann lehst man mein wegen meinen rahmwerk.

00:43:35: aber was man da drin dann macht das kommt sich das ist dann irgendwie von ganz natürlich von alleine.

00:43:41: das wäre mein apel

00:43:44: sehr schön.

00:43:45: vielen dank liebe susanne.

00:43:47: es hat mich sehr gefreut dass du im forschungsimpuls zu gast warst.

00:43:50: alles gute dir.

00:43:52: Ja, danke für die Einlung und es ist Spaß gebracht, mit dir zu reden.

00:44:00: Wer jetzt Lust bekommen

00:44:01: hat, einfach mal

00:44:02: qualitativ zu forschen

00:44:03: und das auszuprobieren, die entsprechenden Links sind natürlich in den Show Notes drin.

00:44:10: Und was ich ganz spannend fand, ist, dass Susanne erklärt hat, wie sich eben der Prozess des Forschens verändert hat und wie er sich auch weiter verändern wird.

00:44:21: Das heißt nicht, dass sich eben die klassischen Kriterien des wissenschaftlichen Arbeitens im Sinne von Objektivität, Reliabilität und Validität ändern oder dass diese abschmelzen, sondern dass sie sich niederschlagen werden in einer neuen Art des Forschens.

00:44:39: Beispielsweise kann solch ein KI-Tool dann an diese Kriterien auch erfüllt werden, dazu beitragen.

00:44:48: Beispielsweise

00:44:49: auch Studierenden

00:44:51: oder Forschenden, ganz allgemein, Hilfsmittel an die Hand zu geben, um ihre Forschung ein bisschen anders, vielleicht auch ein bisschen zeitgemäßer aufzusetzen.

00:45:01: Also die

00:45:02: Einladung steht, wer Lust hat, daran einmal zu arbeiten und auszuprobieren, kann das gerne tun.

00:45:08: Ich denke, dass es gerade auch, wenn man darüber nachdenkt, grundsätzlich Interviews zum Beispiel aufzusetzen, eine ganz dankbare Ergänzung zu dem, was es in der

00:45:18: Literatur

00:45:19: bislang eben gab.

00:45:21: Denn man kann ja viel schneller einfach einen Korpus an Daten, an Interviewdaten, die man natürlich heute auch mit einer lokalen KI transkribiert,

00:45:32: ganz klar,

00:45:33: viel besser hineinziehen in solch ein Tool und dann mit den Daten einen explorativen Zugang finden.

00:45:39: Ich stelle mir

00:45:40: das so vor, dass das auch bei

00:45:41: Studierenden, die das vielleicht zum ersten Mal machen, einfach noch ein bisschen mehr Spaß macht, denn man kann mit seinen Daten eben ganz anders operieren, als das bisher möglich war.

00:45:53: Pfft.

00:45:54: Ich bedanke mich für Ihr und Euer Zuhören in dieser Folge.

00:45:58: Ich glaube, wir haben

00:45:59: so die letzten Episoden

00:46:01: ja nochmal den einen oder anderen Schliff gemacht hier in dem ganzen Setting von der Technik, aber auch von dem Setting des Podcasts

00:46:09: selber.

00:46:09: Vielen Dank für

00:46:10: das Feedback

00:46:11: und auch

00:46:12: für das, was daraus

00:46:13: entsteht.

00:46:14: Man kriegt das im Einzelnen nicht immer mit, aber das sind ganz spannende Sachen, die daraus kommen, Diskussionen oder nochmal das Verteilen von einem Paper.

00:46:21: Noch mal eine Rückfrage.

00:46:23: Kleines Feedback

00:46:24: vielleicht

00:46:25: auch ein Stern.

00:46:26: Das ist also jetzt mein Appell.

00:46:28: Gerne hier die Sterne ausfüllen entsprechend

00:46:31: auf Spotify, dieser Apple-Podcast

00:46:34: und co.

00:46:35: Und natürlich gerne Werbung für diesen Podcast machen.

00:46:39: Das hilft, diese Initiative und diesen Forschungsimpuls bekannter zu machen.

00:46:44: Wir hören uns in der nächsten Episode

00:46:45: wieder

00:46:46: und bis dahin alles Gute.

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.