Als die KI mich zum Podcast einlud
Wir haben erst Frühling, aber eine Meinung vom Jahresanfang habe schon revidieren müssen: Dass niemand KI-Stimmen in Podcasts hören will. Zwei Erlebnisse haben mich vom Gegenteil überzeugt.
000 … 001 … Check-in 👉 So schön das mit der Rückkehr der Blog-Lust bei vielen ist — längere Texte werden trotzdem eher überflogen als gelesen. Wenn wir eine Audio-Fassung bieten, tauchen auch die in unsere Themen ein, die sie mögen, aber nicht gerne lesen. Diese Zielgruppe wird von Medienschaffenden und Social-Profis noch gnadenlos unterschätzt. Podcasts haben sich von Blogs vor 20 Jahren ziemlich schnell emanzipiert, auch wenn sie erst als Audio-Blogs bezeichnet wurden. Brauchen wir letztere eigentlich heute nicht dringend wieder zurück? Ich hatte deswegen ein wenig rumherexperimentiert. Meine These: Selbst lesen ist besser als das von KI übernehmen zu lassen. Aber ist nicht vielleicht eine freie Besprechung besser als ein vorgelesener Text? Also ein Podcast? Beim Ausprobieren bin ich irgendwie zu einem ganz anderen Experiment gekommen: Kann KI dank der verbesserten Dialog-Funktionen mittlerweile auch live in einem Podcast auftreten? Als Gast? Als Host? Mein erster Test mit einem relativ kurzen ChatGPT-Prompt lief so gut, dass ich euch KI als Podcast-Co-Host in dieser Newsletter-Ausgabe vorstellen möchte.
Vor zwei Wochen war ich bei einem Event, dass die Rückkehr der Blog-Lust feiert. Blogtastisch, eine Serie von Online-Meet-ups. Organisiert von Journalist Thomas Riedel, der mit Bloggerkonferenz.de verschiedene Anlaufstellen für alle bietet, bei denen (wieder) das Blog-Fieber ausgebrochen ist. Neben der Bloggerkonferenz im Real Life und einem Retro-Online-Forum gibt es mit Blogtastisch eine Online-Meet-up-Serie. Ich durfte einen Impuls zum Thema Bloggen & Podcasting geben. Die Ergebnisse lest ihr in diesem Newsletter. Nächsten Dienstag (20. Mai) gibt es um 19 Uhr die nächste Ausgabe. Der Impuls zu Bloggen & SEO kommt von Maria Squarra. Wenn ihr Lust habt, könnt ihr euch kostenlos anmelden.
Viel Spaß — euer Daniel … jetzt übergebe ich mein Mikro an die KI:
🎧 Als die KI mich zum Podcast einlud
1️⃣ Mein Gespräch mit der Podcast-KI
Die besten Podcast-Momente sind für mich immer die, wenn die Hosts sich in einem Thema verlieren, für das sie gerade brennen. Ich kenne das auch als Podcast-Host: Wenn mich das Gespräch gerade fasziniert, entstehen Momente, auf die Hörer*innen einen oft ansprechen. Meine schlechtesten Podcast-Momente sind die, bei denen ich aus der Rolle des Fragestellers in die des Interviewten wechseln muss. Wenn ich den Fragesteller kenne, bin ich normalerweise entspannter. Was meint ihr, wie ich mich gefühlt habe, als ich mich auf ein Interview eingelassen habe, das von einer KI geführt wurde.
Mein Start-Prompt hat der KI kaum Vorgaben gemacht: Ich habe ChatGPT aufgefordert, ein Podcast-Rollenspiel zu spielen. Die KI spielt Podcast-Host KI-la Kolumna, die einführt, mich als Gast vorstellt und Fragen zu meinen Blogtexten im Anhang (PDF) stellt. Sie hört meinen Antworten zu und kann entscheiden, ob sie noch einmal mit einer Frage nachhakt oder die nächste Frage zu den Blogtexten stellt.
Das ist KI-la Kolumna: Wenn ihr in den letzten Jahren ab und zu in meinen Was mit Medien-Podcast reingehört habt, kennt ihr KI-la bereits. Schon lange bevor ChatGPT öffentlich startete, hatten wir unsere eigene Podcast-KI. Die hat Herrn Pähler und mich zum Beispiel beim Köpfe-Quiz begleitet. Allerdings hat KI-la noch nicht gesprochen, sondern durch Piep-Geräusche, wie wir sie vom Star-Wars-Droid R2-D2 kennen, mit uns kommuniziert. Für Herrn Pähler und mich hat sich die Stimme immer genauso angehört. Jetzt könnt ihr sie auch hören.
Schnell verflog mein gewohntes Unwohlsein als Interview-Gast, als die KI die Gesprächsführung für meinen Podcast übernahm. Es war zwar ein komisches Gefühl, als Gast im eigenen Podcast zu sein, befragt von Algorithmen. Womit ich nicht gerechnet hätte: dass wir uns während des Gesprächs in den Themen verloren haben – KI-la hat weitergedacht und bewertet. Schon während des Gesprächs dachte ich: Oh, dieser Podcast würde sogar auch von den Hörer*innen gerne gehört werden.
Deswegen habe ich noch etwas an dem Experiment weitergepfeilt. Entstanden ist ein Podcast-Studio, damit ich mir das ganze Geprompte sparen kann (das stelle ich euch weiter unten vor). Und KI-la hat eine eigene Stimme bekommen — so, wie wir sie uns immer vorgestellt haben.
Und wie klingt es nun, wenn eine KI-Stimme eine Podcast-Moderation nicht nur spricht, sondern auch inhaltlich gestaltet? Mit KI-la habe ich eine Audio-Fassung meines letzten Newsletters („Scrollen ohne schlechtes Gewissen“) erstellt und, um es noch um eine Meta-Ebene zu erhöhen: Ihr hört auch die Gesprächs-Zusammenfassung dieses Newsletters, die durch die KI von Google NotebookLM (warum das wichtig ist, dazu später mehr) erstellt wurde. Hier könnt ihr die Folge hören:
Oder hier auch als Direktlink zum Teilen oder Hören via Podcast-App:
Wordpress-Image, Ghost-Strategiewechsel & die Zukunft des Audio-Bloggens
In dieser Folge der Audio-Ausgabe von Daniel Fienes Weblog geht es um ein für mich noch nie ausprobiertes Experiment: Eine Künstliche Intelligenz moderiert einen Podcast – und ich bin diesmal der Gast. Interviewt werde ich von der KI „K.I. La Kolumna“.
Inspiration für deine Internet-Woche: Wie kann die Audio-Begleitung für unsere Texte aussehen? Lasst uns diese Frage künftig immer stellen, wenn wir Texte im Internet veröffentlichen. Damit machen wir unsere Gedanken auch für die zugänglich, die lieber hören als lesen. Die jüngsten Medienwandel-Entwicklungen zeigen: Diese Zielgruppe ist nicht zu unterschätzen.
Aber was steckt hinter dem wachsenden Audio-Bedürfnis?
2️⃣ “Audio ist der Text der mobilen Generation”
Das hat mein ehemaliger Chefredakteur Michael Bröcker vor einigen Jahren zu unseren Rheinische-Post-Zeiten gesagt. Verbunden mit dem Auftrag an mich, Podcast-Konzepte für die Rheinische Post zu entwickeln. Wenig später hatte jede Zeitung, die etwas auf sich hielt, einen Podcast gestartet. Er hatte also recht.
Doch auch im Jahr 2025 entdecken wir neue Mediennutzungs-Trends, die Bröckers Audio-Weisheit bestätigen. Auf Youtube entsteht gerade eine neue Generation an Podcasts-Hörer*innen, die es nur gewohnt sind ihre Podcasts auf der Video-Plattform zu konsumieren. Youtube ist in den USA bereits die meistgenutzte Podcast-Plattform - und außerdem sogar die meisgenutzte Anwendung auf TV-Bildschirmen, neben Netflix oder linearem Fernsehprogramm.
Was ich in den letzten Jahren über die neue Rolle von Audio im Netz gelernt habe, stelle ich euch jetzt zusammen.
Meine Learnings:
„Die Leute lesen nicht mehr – sie hören“ Das klingt dramatisch, trifft aber einen Nerv. Für immer mehr Menschen ist Audio die komfortablere Alternative zum Lesen geworden. Da viele Journalist*innen oder Blogger*innen aber lieber Texte lesen, um sich Inhalte zu erschließen, verpassen sie aber die Bedeutung dieser Veränderung in der Mediennutzung,
Meine Beobachtung zur tatsächlien Audio-Mediennutzung:
Viele Nutzer*innen klicken lieber auf „Play“, als sich durch einen langen Text zu arbeiten. Und: 📱 Spotify, YouTube & Co. machen es unglaublich einfach, Audio-Inhalte zu konsumieren – und das nicht nur nebenbei beim Kochen oder Joggen, sondern auch gezielt zur Wissensaufnahme.
Besonders spannend: Viele Menschen konsumieren Inhalte außerdem, weil sie sich im Moment nicht mit ihren eigenen Gedanken beschäftigen wollen. YouTube läuft im Hintergrund, oft mit gesprochenem Wort statt Musik.
Der dritte Grund warum sich User immer mehr für Audio entscheiden: 🎧 Audio ist zugänglicher als Text für das Gehirn. Es verbraucht weniger Energie um sich Inhalte aus gesprochenem Wort zu erschließen, als beim Lesen eines Textes.
Wechseln wir jetzt die Perspektive: Was gibt es für Medienschaffende zu lernen?
User erwarten, dass Inhalte dort verfügbar sind, wo sie sich sowieso aufhalten – nicht nur auf Webseiten oder Apps von Medien, sondern auch auf Spotify, YouTube oder direkt in ihrem Messenger. Das klingt banal, aber ich sehe bei vielen Distributions-Strategien von Medienhäusern oder Medienschaffenden oft noch Nachbesserungsbedarf.
Viele hören auch, wo früher gelesen wurde – das zeigt sich auch bei Medien wie Zeit, Krautreporter oder Table.Media, die Audio als essenziellen Zugangskanal nutzen. Das habe ich zum Beispiel in unseren Interviews für Was mit Medien gelernt: Als die Zeit die App für die Zeitung relaunchte, war Audio eins der meistgewünschten Features der User — was sich auch mit der intensiven Nutzung der bis dahin rudimentären Audio-Angeote deckte. Oder die Krautreporter, die als meistgenannten Grund für Fans der Marke, die aber zögern ein Abo abuschließen, folgendes nannten: Die Interessierten interessieren sich für die Inhalte, sind aber von den Texten abgeschreckt. Eine Audio-Fassung könnte sie überzeugen. Dann haben wir in den letzten Monaten beobachten können, wie Table.Media mit seinem Podcast das umkämpfte Feld der Morgenpodcasts für sich gewann. Plätze weit vorne in den Charts und im vergangenen Monat gab es eine Million Abrufe. Alle drei erreichen mit Audio also die Teile ihrer Zielgruppen, die sie sonst nicht erreichen würden.
Medienschaffende lernen, dass sie mit Audio im Internet Geld verdienen können. Direkt bei den Usern - in Form von digitalen Abos. Die Leute sind eher bereit Geld für was mit Audio zu bezahlen, als bei herkömmlichen Bezahlschranken.
Aber wie ist das jetzt mit den KI-Stimmen? Anfang des Jahres habe ich ja noch abgewunken. Niemand will KI-Podcasts hören. Ja, die Stimmen sind besser geworden - aber am Ende fehlt das Menschliche. Einer von drei Erfolgsfaktoren eines Podcasts ist Companionship — das kann keine KI. Kein Wunder: Lokalnachrichten von der KI gelesen — für solche Podcasts gab es nur wenige Abrufe. Artikel von einer simplen Sprach-KI vorgelesen? Überschaubare Nutzung. Meine Ablehnung habe ich jetzt aber revidiert. Das waren die Auslöser:
Kürzlich hatte ich euch schon eine Funktion von Googles Notebook LLM. Aus einem beliebigen Text erstellt eine KI ein zusammenfassendes Gespräch zwischen zwei Personen. Die Gespräche sind so gut, da versteht man jeden Text. Ich habe mir ganz viele Gespräche angehört und habe mich dabei ertappt, dass ich gar nicht mehr über die KI-Stimmen nachdachte - geschweige denn sie mich störten. Zum ersten Mal dachte ich bei KI-Audio: Okay, das wollen Leute wirklich hören.
Dann mein Experiment mit KI-la Kolumna als Podcast-Host: Hier habe ich das zweite Mal gedacht, dass sich das Leute auch anhören würden.
Und in der Zwischenzeit ist mit aufgefallen, dass ich Artikel der New York Times oft höre und die aktuelle Version schon so gut vorliest, dass ich meine überzeugte KI-kritische Haltung vergesse und mich auf die Inhalte konzentriere. Oft folgt im Anschluss ein Audio von echten Stimmen und die Mischung stimmt für mich. Soviel wie ich schon gehört habe, hätte ich in der gleichen Zeit nicht gelesen.
📌 Am Ende haben mich Konzepte überzeugt, bei denen die Audio-KI nicht einfach sauber spricht und gut klingt, sondern etwas mehr leistet: Komplexe Inhalte in einer Viertelstunde verlässlich runterbrechen, erklären und einordnen. Oder das unberechenbare Zusammenspiel zwischen KI und Mensch. Oder eine extrem fortgeschrittene Qualität des Sprechens.
Aber wie könnte ein Audio-Konzept zum Beispiel für ein Weblog aussehen?
3️⃣ Wie sieht die perfekte Audio-Begleitung für Blogs aus?
Nur ein Audio-Player? Oder das Audio auch im Blog-RSS-Feed eingebunden? Oder gleich ein eigener Podcast? Und vor allem: Was ist zu hören? Rund um Thomas Riedels Einladung zu Blogtastisch habe ich mir über die Rückkehr der Audio-Blogs im Jahr 2025 Gedanken gemacht. Hier ist das Ergebnis:
🧪 Schritt 1: Text-to-Speech? Nein danke.
KI-Stimmen sind besser geworden, keine Frage. Aber irgendwie fühlte es sich falsch an, meinen eigenen Blog von einer synthetischen Stimme vorlesen zu lassen – gerade wenn man selbst Podcaster ist. Ich wollte, dass es persönlich bleibt.🎙 Schritt 2: Selbst einsprechen.
Also habe ich meine Blogtexte selbst eingesprochen. Das klang gut, fühlte sich gut an – aber irgendwie auch wie ein Hörbuch. Zu glatt. Zu fertig. Zu wenig Blog.🌀 Schritt 3: Der „Second Stream“-Ansatz.
Am besten funktioniert hat am Ende ein lockeres Begleitformat: Ich spreche über das Thema meines Blogartikels, aber nicht 1:1 den Text. So entsteht eine Art Audioblog – nahbar, spontan, wie früher bei Twitter-Threads. Und das Beste: Es ist so unkompliziert, dass ich es regelmäßig machen kann.🤖 Bonus: KI als Co-Host
Ein weiteres Experiment: Ich habe ChatGPT meinen Blogtext gegeben und darum gebeten, mir dazu Fragen zu stellen – wie in einem Podcast-Interview. Das Ergebnis: verblüffend gut. Es war wie eine Radiomoderation im Dialog mit mir selbst – nur eben automatisiert. Und total spannend.
📌 Mein Learning:
Audioblogging muss nicht aufwendig sein. Es kann sogar Spaß machen – wenn man das richtige Format für sich findet. Theoretisch könnte man auch einfach neue Texte von der KI sprechen lassen, später dann durch die eigene Stimme oder eine eigene Audio-Blog-Episode updaten. Die Kombination aus Blog, Audio und vielleicht sogar einem KI-Gesprächspartner eröffnet ganz neue Möglichkeiten.
4️⃣ KI im Arbeitsalltag (6)
Liebes KI-Tagebuch,
diese Woche festgestellt: In allen Arbeitsbereichen setze ich inzwischen KI ein. Dabei hatte ich mir das nicht einmal zum Ziel gesetzt. Was bedeutet das für meine Arbeitsergebnisse? Was gut ist: Tatsächlich schaffe ich viele Aufgaben schneller und schaffe neue Freiräume, aber viel stärker begeistert mich, dass ich auf einmal ganz andere Dinge anpacken kann, die vorher außer meiner Reichweite waren. KI hat meine Programmierskills von vor 20 Jahren ins Jahr 2025 geholt. Was nicht so gut ist: Was KI an Zeit spart, vergeudet sie dann zu einem nicht geringen Teil aber wieder durch die ganzen Fehlerkorrekturen.
Vor ein paar Tagen scherzte ich noch, dass ich für diese Newsletter-Ausgabe nicht wie in den letzten zwei Ausgaben auch noch ein neues Tool fertig programmieren würde — das wäre sonst zu aufwendig. Well, das hat nicht geklappt. Am Ende ist wieder ein Tool entstanden. Nach Podcasts For You und The Good Old Reader möchte ich euch passend zu dieser Ausgabe mein Podcast-Studio vorstellen, in dem ihr Podcast-Aufnahmen zusammen mit KI-la Kolumna aufnehmen könnt.
Statt in ChatGPT alles einzuprompten, dachte ich an ein Tool, in dem das Profil von KI-la Kolumna und ihre Aufgaben hinterlegt sind, ich nur noch das Thema und Referenzlinks angeben muss und wir dann direkt die Aufnahmen im Browser starten & speichern können. All das leistet das Podcast-Studio. Das stelle ich in den kommenden Tagen bei mir im Blog genauer vor und in meinem Podcast-Strategie-Newsletter nächste Woche gibt es die Zusammenfassung und auch einen Zugang, wenn ihr interessiert seid.
Zu meinem Podcast-Strategie-Newsletter
5️⃣ Neues von The Good Old Reader
Für alle, die immer noch den Google Reader vermissen und für alle, die schon mal wieder in die Blogwelt eintauchen wollen, um auf die derzeit entstehende dezentrale Welt der Social-Media vorbereitet zu sein, habe ich in der letzten Ausgabe The Good Old Reader vorgestellt.
Starter-Packs für neue User: Mit den neuen Feed-Collections könnt ihr direkt euren Reader um Webseiten zu Themen ergänzen, die euch interessieren. Im Verzeichnis könnt ihr für euch interessante Collections entdecken und die darin kuratierten Webseiten mit einem Klick zu eurem Reader hinzufügen. Ihr könnt auch eigene Collections erstellen und für alle anderen Reader-User zur Verfügung stellen.
Ein Dankeschön für die ersten 100 User: Während des Beta-Tests könnt ihr die Premium-Funktionen des Readers nicht nur für 50% buchen, für die ersten 100 User gibt es sogar ein weiteres Dankeschön: Alle Tarife gibt es komplett kostenlos — solange der Beta-Test läuft. Mein Tipp: Holt euch den größten Tarif für ein Jahr und ihr könnt The Good Old Reader mit maximalen
Woran ich als nächstes arbeite: Die Suche und Trends fehlen noch, um das alte Google-Reader-Erlebnis nachzubilden. Und meine Liste für eine 2025-Version eines RSS Readers wird währenddessen länger und lännger.
In dieser Woche habe ich mir natürlich Gedanken um eine Audio-Begleitung gemacht, die über ein simples Vorlesen durch eine gute KI-Stimme hinausgeht. Wie wäre es mit einer Zusammenfassung der neusten RSS-Feed-Inhalte in einem durch den User vorgegeben zeitlichen Rahmen. Quasi ein persönlicher Podcast der fünf, zehn oder 15 Minuten lang ist und sich aus den frischesten Inhalten der abonnierten Webseiten speist. So viele tolle Möglichkeiten!
The Good Old Reader ausprobieren
… 059 … 060 ⏲️ Soweit eine Minute mit Inspiration für deine neue Internetwoche.
Diesen Newsletter weitergeleitet bekommen?
Kennst Du jemanden, für den dieses Thema interessant sein könnte? Dann leite diese E-Mail gerne weiter oder teile den Link.
Mehr aus Daniels Weblog?
Please update: Neue URL für den RSS-Feed meines Blogs.
Auf meinem Themenzettel: Produktiv arbeiten wie Dua Lipa +++ Über Inboxen Communities aufbauen +++ Warum die Link-Kritik bei sozialen Netzwerken überflüssig ist +++ This is my next Morningbriefing +++ This is my next ToDo-App +++ WhatsApp-Channel & Co. besser bespielen +++ Schöne neue Substack-Welt +++ Von Mobile- & Microblogs +++ 20 Jahre Youtube
Mehr E-Mails von Daniel?
Mittwochs: Style & Stitches (Threads & dezentrale Social Media)
Donnerstags: Podcast-Strategie
Sonntags: Mein persönlicher Newsletter mit Inspiration für die neue Internetwoche (danke fürs Lesen)