Zum Inhalt springen
Ramona

KI liest Texte vor. Tod der Hörbuchsprecher?

Empfohlene Beiträge

Tod der Hörbuchsprecher? Apple lässt künstliche Intelligenz vorlesen:
https://www.literaturcafe.de/tod-der-hoerbuchsprecher-apple-laesst-kuenstliche-intelligenz-vorlesen/

Fazit trotz Kaufhausradio-Qualität: "Hoher Gewöhnungseffekt. Und genau auf diesen Markt zielt Apple ab. Bereits vor Jahren haben Untersuchungen mit technisch schlecht codierten MP3-Dateien gezeigt, dass man sich daran gewöhnt, ja irgendwann sogar die bessere Version verschmäht und die gewohnte, schlechtere bevorzugt."

 

Inspiration exists, but it has to find us working! (Pablo Picasso)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ach du meine Güte, die sind aber gut. Ich persönlich kann nur schwer einen Unterschied zu einer echten menschlichen Stimme feststellen. Was mich zu der Überzeugung bringt, in spätestens fünf Jahren war es das mit den Hörbüchern von Menschen eingesprochen.

Hier Hörbeispiele der vier künstlichen Stimmen, vor allem Madison ist fantastisch: https://authors.apple.com/support/4519-digital-narration-audiobooks

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 8 Minuten schrieb FlorianV:

Ach du meine Güte, die sind aber gut. Ich persönlich kann nur schwer einen Unterschied zu einer echten menschlichen Stimme feststellen. Was mich zu der Überzeugung bringt, in spätestens fünf Jahren war es das mit den Hörbüchern von Menschen eingesprochen.

Hier Hörbeispiele der vier künstlichen Stimmen, vor allem Madison ist fantastisch: https://authors.apple.com/support/4519-digital-narration-audiobooks

Das dachte ich auch gerade, als ich die beiden Beispielstimmen angehört habe. Wow - unglaublich. Wenn ich da an die Vorlesestimme denke, die mir hier in meinem Word-Programm völlig abgehackte Wörter und Sätze herbeistammelt, bin ich jetzt echt baff, wie viel sich da qualitativ getan hat.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Mit Hörbüchern kenne ich mich nicht aus, da ich eher ein visueller Mensch bin. Vorhin habe ich aber mal die beiden KI-Stimmen mit zwei je männlichen und weiblichen Stimmen aus Hörbuchproben verglichen. Die Stimmen der KIs klangen "frischer". Dafür gab es keinerlei Untertöne oder Timbres wie eine leichte Rauheit der Stimme usw.-sie klingen eben so frisch wie frisch gewaschen oder -poliert.:) Ja, ich denke auch, das sich die Stimmen von KIs und Menschen immer mehr annähern. Ich kann ja jetzt schon nicht mehr unterscheiden, ob die Stimme am Telefon oder in der U-Bahn von einem Menschen oder einer KI stammt. Bei den Romanen ist das noch mal eine andere Sache. Die könnten einmal so gut geschrieben sein wie Verlagsbücher, aber wie in der Musik (ich höre es scheppern und holpern) können sie wahrscheinlich niemals Gefühle bei mir hervorrufen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Ach du meine Güte!

Die Qualität ist ja wirklich erstaunlich. Die Frage ist natürlich, inwiefern das auf andere Sprachen übertragbar ist. Englisch ist ja sprachlich gesehen relativ simpel gestrickt. Ein weiteres Problem sehe ich darin, was passiert, wenn man Figuren undeutlich, im Dialekt oder sonstwie eigenartig sprechen lassen will.

Ich sage mal so: Die KI wird schon eine schöne Vorlesestimme hinkriegen, aber ob Sie auch Charaktere hinkriegt, wage ich zu bezweifeln.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 23 Minuten schrieb Sebastian Niedlich:

Ach du meine Güte!

Die Qualität ist ja wirklich erstaunlich. Die Frage ist natürlich, inwiefern das auf andere Sprachen übertragbar ist. Englisch ist ja sprachlich gesehen relativ simpel gestrickt. Ein weiteres Problem sehe ich darin, was passiert, wenn man Figuren undeutlich, im Dialekt oder sonstwie eigenartig sprechen lassen will.

Ich sage mal so: Die KI wird schon eine schöne Vorlesestimme hinkriegen, aber ob Sie auch Charaktere hinkriegt, wage ich zu bezweifeln.

Die Eigenart, den Dialekt und das Lallen werden sie schon hinkriegen, denn dafür gibt es ja Vorbilder bzw. Vor-Stimmen. Der Charakter dagegen ist mehr als nur ein Konglomerat aus Menschentypen.::)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Na ja, wenn man jedes Mal explizit hinschreibt, dass die Figur lallt, dann vielleicht. Aber normalerweise schreibt man das nur einmal hin. Was ist bei einer längeren Konversation, wo das nicht mehr explizit erwähnt wird? Merkt sich das die KI?
Oder wenn ich möchte, dass ein Charakter eben auf eine ganz bestimmte Art und Weise spricht ... merkst sich das die KI? Auch über verschiedene Bücher hinweg?

Ich denke z.B. an die Hörbücher von Harry Potter, gelesen von Rufus Beck, der mit den verschiedenen Stimmen natürlich auch die Charaktere lebendig werden ließ. Meine Befürchtung ist, dass die KI zwar VORLESEN kann, aber eben nicht DISTINKT ist. Zumindest würde mich das sehr wundern. Aber unterschätzen sollte man diese KI-Geschichten auf jeden Fall nicht.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Spiegel-Online vertont jetzt regelmäßig alle Texte par KI. Wohlgemerkt deutsche Texte. Auch das funktioniert wirklich gut, Sprachrhythmus gut, Betonungen an der richtigen Stelle, obwohl insgesamt ein wenig zu glatt und regelmäßig. Manchmal fehlen Pausen oder ein Fremdwort ist falsch ausgesprochen. Aber ich benutze die Möglichkeit oft. Weniger anstrengend als selbst lesen.

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich kann dem nicht viel abgewinnen. Die Stimmen klingen für mich mechanisch. Schon etwas mehr wie ein Vorleser als die Roboterstimme, mit der man sich am Mac Texte vorlesen lassen kann, aber von einem Hörbuchsprecher sind die so weit entfernt wie ChatGPT von Shakespeare.

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb DirkH:

Ich kann dem nicht viel abgewinnen. Die Stimmen klingen für mich mechanisch. Schon etwas mehr wie ein Vorleser als die Roboterstimme, mit der man sich am Mac Texte vorlesen lassen kann, aber von einem Hörbuchsprecher sind die so weit entfernt wie ChatGPT von Shakespeare.

Für ein Hörbuch ist es noch nicht so weit. Da kommt es unter anderem auch darauf an, den einzelnen Figuren Charakter zu verleihen. Ich denke, das dürfte für eine KI schwierig sein.

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Beeindruckend. Diese ganze KI-Sache nimmt in den letzten Monaten so viel Fahrt auf. Ich glaube nicht, dass es auf Dauer schwierig sein wird, unterschiedliche Figuren darzustellen. Vermutlich wird es die Stimmen bald nach Gefühlslagen geben, und dann braucht es nur Marker vor den Dialogen. Für viele Menschen wird das vermutlich reichen...

Ulrike Hartmann | Autorin & Coach
 
Ich helfe dir, deinen Roman zu schreiben.
 
 

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich glaube das ehrlich gesagt auch. Und es macht mir in mehrerlei Hinsicht Angst. Gestern kam bei den Tagesthemen auch ein längerer Beitrag über dieses Programm, das Texte generiert, GPwasweißich. Man machte sich ernsthafte Gedanken, ob an der Uni in Zukunft Haus- und Masterarbeiten noch als selbstgeschrieben erkannt werden könnten. Ich finde das gruselig.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Es ist auf jeden Fall aufregend. Alle reden darüber. Gruselig finde ich es nicht, eher atemberaubend. Und es kann durchaus ein kreatives Arbeitsmittel sein.  Ich habe mich auch bei der ChatGPT angemeldet und Fragen gestellt. Das fand ich sehr inspirierend. Ihr großer Vorteil ist die klare, prägnante Antwort. Aber da sie Datenhalluzinationen hat, ist sie nicht verlässlich. 

Ulrike Hartmann | Autorin & Coach
 
Ich helfe dir, deinen Roman zu schreiben.
 
 

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

ChatGPT probiere ich auch gerade aus. Bin aber noch nicht so beeindruckt. Scheint eher so Zusammenfassungen von Wikipedia-Artikeln auszuspucken. 

Die Montalban-Reihe, Die Normannen-Saga, Die Wikinger-Trilogie, Bucht der Schmuggler, Land im Sturm, Der Attentäter, Die Kinder von Nebra, Die Mission des Kreuzritters, Der Eiserne Herzog, www.ulfschiewe.de

Link zu diesem Kommentar
Auf anderen Seiten teilen

Ich habe mich vor ein paar Tagen mit ChatGPT unterhalten und sogar mit ihr geplottet. Obwohl ich da nicht in die Tiefe gehen wollte, denn erstens „belauschen“ die Entwickler unser Gespräch und zweitens wollte ich nicht, dass die KI meine Ideen dann in ihr Sammelsurium aufnimmt und dem nächsten Autor vorschlägt. 
Aber es ist schon erstaunlich. Man hat das Gefühl, man unterhalte sich mit einem echten Menschen, der Ideen hat und sofort versteht, was man meinst, wenn man zum Beispiel sagt: „Aber die Gefahr ist groß, dass der Leser dann glaubt, der Bruder stecke dahinter.“ Dann sagt sie: „Stimmt, du hast recht, der Leser könnte diese Vermutung haben, wenn die Mutter das macht. Du könntest es aber so oder so oder so machen, dann hat er diese Vermutung nicht mehr.“
Die Ideen sind zwar nicht sooo innovativ und genial, aber sie sind durchaus logisch und brauchbar, vor allem insofern, dass man mal in andere Richtungen denkt. 

Den eigenen Geist schlägt die KI noch nicht, dazu bewegt sie sich noch zu sehr im Rahmen ihrer Möglichkeiten. Aber wer weiß, was die Zukunft bringt.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 11 Stunden schrieb KerstinH:

Ich glaube das ehrlich gesagt auch. Und es macht mir in mehrerlei Hinsicht Angst. Gestern kam bei den Tagesthemen auch ein längerer Beitrag über dieses Programm, das Texte generiert, GPwasweißich. Man machte sich ernsthafte Gedanken, ob an der Uni in Zukunft Haus- und Masterarbeiten noch als selbstgeschrieben erkannt werden könnten. Ich finde das gruselig.

Das ist durchaus gruselig. Doch ich gebe zu bedenken, dass viele Menschen lernen werden, künstliche Stimmen von echten zu unterscheiden.

In den Anfangszeiten der Fotografie wurden Bilder (aus heutiger Sicht) oft haarsträubend simpel manipuliert. Ich erinnere mich an ein Bild, auf dem mehrere Politiker nebeneinander standen. Im Originalbild gab es einen in Ungnade gefallener Politiker. Der war dadurch entfernt worden, dass man den Streifen mit ihm rausschnitt und die übrig gebliebenen Teile aneinander schob. Dadurch fehlten alle möglichen Schatten, ich glaube, bei genauem Hinsehen entdeckte man sogar noch Teile einer Hand der entfernten Person.

Trotz der groben Unstimmigkeiten bemerkten die meisten Betrachter es aber nicht. Fotografie war damals noch so neu, dass sie als "wahr" empfunden wurde. Welche Manipulationen möglich sind, war noch unbekannt.

Mein Sohn erkennt Bearbeitungen in Filmen wesentlich schneller als ich. Er erstellt zB Bilder mit 3-D-Computergrafiken oder bearbeitet Filmteile mit dem Programm After Effects und hat darum einen ganz anderen Blick dafür. Wenn wir zusammen Filme gucken, weist er mich dann manchmal darauf hin bzw er erklärt, woran er es erkennt.

Es gibt keine Regeln, nur sachkundige Entscheidungen. Und sachkundige Entscheidungen könnt ihr nur treffen, wenn ihr euch sachkundig macht.

Elizabeth George

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb HenningS:

Das ist durchaus gruselig. Doch ich gebe zu bedenken, dass viele Menschen lernen werden, künstliche Stimmen von echten zu unterscheiden.

Neben etwas Grusel bei mir gleichzeitig auch Fazination und die Frage: Was will man damit eigentlich erreichen? Zum Beispiel was Gefühle angeht. Gerade habe ich mir einen Link angesehen (-gehört) über die neue KI von Microsoft VALL-E-sie benötigt nur drei Sekunden einer Rede zum Beispiel von Kanzler Scholz, um mit der gleichen Stimme und den gleichen "Gefühlen" weiterzusprechen. Autoren könnten Podcasts einsprechen, ohne selber ans Mikrofon zu müssen. Soll einfach alles nur bequemer werden und der Kanzler kann mal Kaffee trinken gehen und die Autor´ínnen können ohne Ablenkung weiterschreiben? So erschreckend sind die neuen KI-Stimmen

Weiter unten gibt es Hörproben von menschlichen und KI-Stimmen über Gefühle von Zorn über Schläfrigkeit bis Amüsiertsein-also Gefühle lassen sich tatsächlich nachahmen bzw. aus den 3 Sekunden rausfiltern. 

Wie kann man die menschlichen und künstlichen Stimmen denn voneinander unterscheiden, Henning und alle? 

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 12.1.2023 um 08:24 schrieb KerstinH:

Ich glaube das ehrlich gesagt auch. Und es macht mir in mehrerlei Hinsicht Angst. Gestern kam bei den Tagesthemen auch ein längerer Beitrag über dieses Programm, das Texte generiert, GPwasweißich. Man machte sich ernsthafte Gedanken, ob an der Uni in Zukunft Haus- und Masterarbeiten noch als selbstgeschrieben erkannt werden könnten. Ich finde das gruselig.

Leider finde ich den Artikel nicht mehr, aber eine Professorin aus den USA hat letztens darüber berichtet, wie sie kaum einen Monat nach der Einführung von ChatGPD zum ersten Mal eine studentische Arbeit erhalten hat, die ein AI-Plagiat war. Obwohl die Macher hinter ChatGPA zwar auch eine App anbieten, um Texte darauf testen zu lassen, ob sie mit der Softwäre entstanden sind, bleibt das Problem, dass nicht einmal die Software weiß, WIE genau sie zu dieser Feststellung kam. 

Das, noch mehr als die Tatsache, dass AIs natürlich auch missbraucht werden können, indem man fremdgenerierte Texte als eigene ausgibt, finde ich das Erschreckendste daran. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Okay, ich habe mal durch meine Timeline gescrollt. Der Faden stammt von Darren Hudson Hick und wurde auf Facebook veröffentlicht - ich habe mich vertan, war ein Dozent, keine Dozentin :

Zitat

 

Today, I turned in the first plagiarist I’ve caught using A.I. software to write her work, and I thought some people might be curious about the details.

The student used ChatGPT (https://chat.openai.com/chat), an advanced chatbot that produces human-like responses to user-generated prompts. Such prompts might range from “Explain the Krebs cycle” to (as in my case) “Write 500 words on Hume and the paradox of horror.”

This technology is about 3 weeks old.

ChatGPT responds in seconds with a response that looks like it was written by a human—moreover, a human with a good sense of grammar and an understanding of how essays should be structured. In my case, the first indicator that I was dealing with A.I. is that, despite the syntactic coherence of the essay, it made no sense. The essay confidently and thoroughly described Hume’s views on the paradox of horror in a way that were thoroughly wrong. It did say some true things about Hume, and it knew what the paradox of horror was, but it was just bullshitting after that. To someone who didn’t know what Hume would say about the paradox, it was perfectly readable—even compelling. To someone familiar with the material, it raised any number of flags. ChatGPT also sucks at citing, another flag. This is good news for upper-level courses in philosophy, where the material is pretty complex and obscure. But for freshman-level classes (to say nothing of assignments in other disciplines, where one might be asked to explain the dominant themes of Moby Dick, or the causes of the war in Ukraine—both prompts I tested), this is a game-changer.

ChatGPT uses a neural network, a kind of artificial intelligence that is trained on a large set of data so that it can do exactly what ChatGPT is doing. The software essentially reprograms and reprograms itself until the testers are satisfied. However, as a result, the “programmers” won’t really know what’s going on inside it: the neural network takes in a whole mess of data, where it’s added to a soup, with data points connected in any number of ways. The more it trains, the better it gets. Essentially, ChatGPT is learning, and ChatGPT is an infant. In a month, it will be smarter.

Happily, the same team who developed ChatGPT also developed a GPT Detector (https://huggingface.co/openai-detector/), which uses the same methods that ChatGPT uses to produce responses to analyze text to determine the likelihood that it was produced using GPT technology. Happily, I knew about the GPT Detector and used it to analyze samples of the student’s essay, and compared it with other student responses to the same essay prompt. The Detector spits out a likelihood that the text is “Fake” or “Real”. Any random chunk of the student’s essay came back around 99.9% Fake, versus any random chunk of any other student’s writing, which would come around 99.9% Real. This gave me some confidence in my hypothesis. The problem is that, unlike plagiarism detecting software like TurnItIn, the GPT Detector can’t point at something on the Internet that one might use to independently verify plagiarism. The first problem is that ChatGPT doesn’t search the Internet—if the data isn’t in its training data, it has no access to it. The second problem is that what ChatGPT uses is the soup of data in its neural network, and there’s no way to check how it produces its answers. Again: its “programmers” don’t know how it comes up with any given response. As such, it’s hard to treat the “99.9% Fake” determination of the GPT Detector as definitive: there’s no way to know how it came up with that result.

For the moment, there are some saving graces. Although every time you prompt ChatGPT, it will give at least a slightly different answer, I’ve noticed some consistencies in how it structures essays. In future, that will be enough to raise further flags for me. But, again, ChatGPT is still learning, so it may well get better. Remember: it’s about 3 weeks old, and it’s designed to learn.

Administrations are going to have to develop standards for dealing with these kinds of cases, and they’re going to have to do it FAST. In my case, the student admitted to using ChatGPT, but if she hadn’t, I can’t say whether all of this would have been enough evidence. This is too new. But it’s going to catch on. It would have taken my student about 5 minutes to write this essay using ChatGPT. Expect a flood, people, not a trickle. In future, I expect I’m going to institute a policy stating that if I believe material submitted by a student was produced by A.I., I will throw it out and give the student an impromptu oral exam on the same material. Until my school develops some standard for dealing with this sort of thing, it’s the only path I can think of.

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 16 Stunden schrieb Christa:

Wie kann man die menschlichen und künstlichen Stimmen denn voneinander unterscheiden, Henning und alle? 

Savants, Menschen mit Inselbegabung wie zB Rain-Man, sind sehr häufig Autisten. Sie sind nicht oder schlechter in der Lage, die Gefühle anderer Menschen zu erkennen.

Daraus kann man folgern, dass ihnen Gedankenkapazität fehlt bzw dass ein riesiger Teil der menschlichen Gedankenleistung eben dafür verwendet wird, Gefühle anderer Menschen zu erkennen. Was für die Urmenschen, wenn sie auf Fremde trafen, ja auch durchaus sinnvoll war.

Wie Menschen das machen, Gefühle anderer zu lesen, ist ja noch gar nicht genau bekannt. Dh in den meisten Fällen werden sie es gefühlsmäßig schaffen, die menschlichen und künstlichen Stimmen voneinander zu unterscheiden.

Bei den Hörbeispielen fiel mir auf, dass der Sprachrhythmus und die Modulation der Tonhöhe immer ähnlich waren. In der Mitte des Satzes wurde der Ton leicht höher und fiel dann wieder ab. Dies wird auf Dauer sicher besser werden, aber wie sehr es sich an den Inhalt anpassen wird, wird sich noch zeigen.

Es gibt keine Regeln, nur sachkundige Entscheidungen. Und sachkundige Entscheidungen könnt ihr nur treffen, wenn ihr euch sachkundig macht.

Elizabeth George

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Stunden schrieb NicoleW:

Das, noch mehr als die Tatsache, dass AIs natürlich auch missbraucht werden können, indem man fremdgenerierte Texte als eigene ausgibt, finde ich das Erschreckendste daran. 

Aber es war doch schon immer so, dass Menschen sich Texte für zB Hausarbeiten von Verwandten oder Freunden schreiben lassen konnten.

Es gibt keine Regeln, nur sachkundige Entscheidungen. Und sachkundige Entscheidungen könnt ihr nur treffen, wenn ihr euch sachkundig macht.

Elizabeth George

Link zu diesem Kommentar
Auf anderen Seiten teilen

Danke, Nicole. Demnach kann der Profi, in diesem Fall der Dozent, die Unterschiede anhand des dünnen oder sogar falschen Inhalts erkennen.

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 10 Minuten schrieb DirkH:

Danke, Nicole. Demnach kann der Profi, in diesem Fall der Dozent, die Unterschiede anhand des dünnen oder sogar falschen Inhalts erkennen.

Was bei Romanen, die nochmal überarbeitet worden sind, bestimmt schon schwerer wäre.

vor 17 Minuten schrieb HenningS:

Daraus kann man folgern, dass ihnen Gedankenkapazität fehlt … (Savants)

Mit dieser Schlussfolgerung wäre ich vorsichtig. Gefühle zu erkennen, hat nichts mit denken zu tun, maximal ihr sprachlicher Ausdruck. Eventuell widmen sie ihre Kapazitäten nur anderen Dingen. :-)

 

Bearbeitet von KerstinH
Link zu diesem Kommentar
Auf anderen Seiten teilen

Bitte melde Dich an, um einen Kommentar abzugeben

Du kannst nach der Anmeldung einen Kommentar hinterlassen



Jetzt anmelden


×
×
  • Neu erstellen...