Zum Inhalt springen
Sebastian Niedlich

KI - Künstliche Intelligenz MEGATHREAD

Empfohlene Beiträge

vor 12 Stunden schrieb Christa:

Aber den Stil imitieren, ja, das kann sie jetzt etwas besser. Wenn ich schreibe: "Sie war draußen, sie war frei!" sagt die KI: "Endlich war sie draußen, endlich war sie frei!"  Ich habe sie auch beim letzten Absatz meines Romantextes weiterschreiben lassen, war exakt die Fortführung, die ich allerdings dann wieder anpassen musste, weil zu "rezeptmäßig". Also in der Kunst, beim Schreiben usw. wird sie wohl länger brauchen als bei der Durchführung von Tests.

Zum Stil: Sofern Du nicht die Bezahlversion verwendest, werden als Kontext ja immer noch nur die letzten 2000 Wörter herangezogen. Das ist etwas anderes, als wenn ein LLM auf ein größeres Korpus, z.B. Kafka, trainiert wurde.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Stunden schrieb Christa:

Ich habe die KI mal ein paar Kurzgeschichten schreiben lassen, mit genauen Eingaben, was ich davon erwarte, wer mitspielt, wo und wie das stattfindet und wie der Ton sein soll. Sie sind alle gleich geschrieben, nämlich wie Schulaufsätze eines mittelbegabten Schülers. Wie war das noch mit dem IQ? Der eines 5-oder 9jährigen Kindes?

Der hier irgendwo verlinkte Zeitschriften-Artikel, über KI, auftragsgemäß mit Humor, der erste Teil von der KI, las sich für mich recht flüssig. Ich hätte nicht gemerkt, dass den kein Mensch geschrieben hat. (Wobei der sicherlich drübergegangen ist.)

Man gräbt keine goldenen Halsbänder aus dem Boden. (John Vorhaus "Handwerk Humor")

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 9 Minuten schrieb Beate K.:

Der hier irgendwo verlinkte Zeitschriften-Artikel, über KI, auftragsgemäß mit Humor, der erste Teil von der KI, las sich für mich recht flüssig. Ich hätte nicht gemerkt, dass den kein Mensch geschrieben hat. (Wobei der sicherlich drübergegangen ist.)

Ja, das war ein richtig guter, humorvoller Artikel. Entweder ist Mensch da noch mal drüber gegangen, oder die neue Bezahlversion ist einfach besser, wie ich es ChristophH`s Worten entnehmen kann. Was mir noch bei der Stilimitation aufgefallen ist: Sie duldet keine individuellen Abweichungen, wie kurze und lange Sätze-Die Sätze macht sie alle irgendwie gleich lang. Trotzdem konnte ich ein, zwei Sätze und ein Wort aus dem Passus übernehmen, die haben was verbessert.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Hier mal ein - missglücktes, mich deswegen aber gerade sehr erheitert habendes - Beispiel, wie ich ChatGPT normalerweise einsetze, nämlich an der Schnittstelle von Recherche/Kreativität. Ich hatte eine Szene im Kopf von zwei Personen, die romantisch einen Sternenhimmel beobachten und dazu im Gras liegen. Eine davon richtet sich auf und dreht sich seitlich zur anderen Person. Diese blickt hinauf und sieht den Sternenhimmel im Hintergrund und im Vordergrund das Weiß der Augen und Zähne funkeln. Ich dachte, es wäre eine nette Idee, wenn die am Boden liegende Person darüber nachdenkt, was für ein Sternbild Augen und Zähne bilden könnten - denn direkt zuvor geht es um Sternbilder. Für solche Sachen habe ich früher viel gegoogelt oder eben mein Hintergrundwissen aktiviert, sofern ich es hatte. Mittlerweile mache ich solche Dinge nur noch mit ChatGPT und muss nur ganz selten BingChat oder andere Internet-Ressourcen konsultieren. Das ist genau die Art konvergenter Denkprozesse, in denen ChatGPT laut meiner Untersuchungen so stark ist. Hier jetzt das im ersten Anlauf aufgrund meiner faulen Frageweise missglückte Experiment: Link.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Ich habe hier noch mal ein paar Videos zusammengetragen, die z.T. Altbekanntes zeigen, aber alles noch mal ganz gut erklären, oder ein paar neuere Sachen beleuchten. Alle Videos in Englisch.

The Scariest Thing About ChatGPT That No One Is Talking About
Etwas reißerischer Titel und reißerisches Vorschaubild. Im Grunde geht es noch mal darum, wie ChatGPT zu falschen Ergebnissen kommt etc.

GPT 4: Full Breakdown (14 Crazy Details You May Have Missed) - Last One is Extra Wild
Jemand, der tatsächlich den technischen Report hinter GPT-4 gelesen hat, gibt eine Erläuterung dazu, was das Ding jetzt alles kann bzw. was an Merkwürdigkeiten da bereits erforscht wurde.

GPT 4: 9 Revelations (not covered elsewhere)
Gleicher Kanal wie das zweite Video. Geht auf die etwas verrückteren Erkenntnisse aus dem technischen Report ein.

How To Access GPT-4 (and what it can do)
Noch ein Video, das die Möglichkeiten von GPT-4 erklärt. Findet noch ein paar andere interessante Dinge, als die Videos davor.

Putting GPT-4 to the Test - Can it code a complete game from scratch?
Das Video ist ... komischerweise nicht sehr spannend. Kurze Antwort: Ja, GPT-4 kann mal eben ein Spiel programmieren. In dem Fall ein Farbregler-Spiel. Es ist aber nett anzusehen, wie das Ding einfach alles von alleine macht. (Irgendjemand hat ChatGPT auch mal eine Pong-Variante programmieren lassen.) "Codeschrubberei" ist damit wirklich passé.

 

Es gibt gefühlt noch Tausende weitere Videos bei YouTube usw., die gerade nur in Hyperbeln über GPT-4 sprechen. Da ist auch eine Menge Mist dabei. Die schienen mir hier aber überwiegend interessant zu sein. Vor allem die, die sich etwas näher mit dem technischen Report beschäftigt haben.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Stunden schrieb Christa:

 Beim Kühlschrankrezept bin ich mir schon nicht mehr so sicher. Sie sollte mir ein historisches Rezept mit Hühnchen vorschlagen, da war Tomatenmark drin. Das hatten die im 16. Jahrhundert nicht, überhaupt Tomaten und Kartoffeln noch nicht in der Breite.

 

Zum Kühlschrank. Das kann ja auch erst GPT-4 - und noch nicht im Textumfeld von ChatGPT. Aber mein Beispiel war nicht hypothetisch. Siehe hier, was möglich ist. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 17 Stunden schrieb MaschaV:

 

Ich bin ziemlich sicher, dass KI unseren Job sehr verändern wird, und ich möchte dabei sein. Nicht aus Angst, man könnte mich nicht mehr brauchen, sondern weil ich neugierig und ziemlich begeistert bin. Ich will mit der KI arbeiten, sie als Partnerin für meine Kreativität nutzen, ihre Möglichkeiten erforschen und nutzen. Wohin das führt, weiß ich auch nicht. Aber: What a ride!

Das ist das Spannende! Ich bin wirklich fasziniert. Sie lässt sich gut kreativ nutzen, denn eigentlich geht alles immer nur um die richtigen Fragen. Ich habe jetzt noch nicht alle Artikel gelesen, die ihr verlinkt habt, aber das werde ich noch tun. Ich will das alles unbedingt lernen und wissen.

Diese Daten-Halluzinationen sind übrigens wirklich interessant. Das ist mir heute wieder aufgefallen. Ich hatte die KI heute morgen einen Film zusammenfassen lassen, den ich gesehen hatte, und der Inhalt war falsch. Das war frei erfunden, da stimmten nur die Eckdaten. Deshalb lasse ich die KI nichts für mich zusammenfassen, was ich nicht gesehen oder gelesen habe.

Das mit dem IQ eines Fünfjährigen stand auch in einem Artikel der Zeit. Das ist wohl gerade gängiges Beispiel, auch wenn es nicht stimmt.

Ich helfe Autor*innen, starke Romane zu schreiben.
 
Autorin & Coach
 
 

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Minuten schrieb ChristophH:

Zum Kühlschrank. Das kann ja auch erst GPT-4 - und noch nicht im Textumfeld von ChatGPT. Aber mein Beispiel war nicht hypothetisch. Siehe hier, was möglich ist. 

Verstehe. Ich fotografiere das Innere meines Kühlschranks, und GPT4 schlägt mir dann Rezepte vor. Finde ich keinen Fortschritt, denn ich weiß ja selbst, was ich kochen könnte, oder ich gucke ins Kochbuch oder bei Google. Die Bilderkennung und Einbeziehung ist das Neue bei GPT4. Im "Stern" habe ich gerade gelesen, dass die Erwartungen an Nr.4 zu hoch seien, es sei dazu prädestiniert, enttäuscht zu werden. (Bing habe ich übrigens auch wieder entfernt, ist zu oberflächlich.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Das mag schon sein, dass Dich das persönlich nicht umhaut. Vor einem Jahr hätte das aber kaum einer für möglich gehalten. Man darf eines nicht vergessen: Grundsätzlich sind diese KIs einfach darauf trainiert, dass sie das jeweils nächste Wort erraten. Grundlage ist, dass sie sich viele Texte angeschaut haben, vor allem das Internet. Es ist da z.B. kein Taschenrechner eingebaut. Trotzdem können sie rechnen. Man KÖNNTE diese Werkzeuge alle einbauen. Das Entscheidende ist: Sie bekommen das alles jetzt schon ganz fantastisch hin, obwohl sie nur mit Sprache trainiert wurden. 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 15 Minuten schrieb ChristophH:

Das mag schon sein, dass Dich das persönlich nicht umhaut. Vor einem Jahr hätte das aber kaum einer für möglich gehalten. Man darf eines nicht vergessen: Grundsätzlich sind diese KIs einfach darauf trainiert, dass sie das jeweils nächste Wort erraten. Grundlage ist, dass sie sich viele Texte angeschaut haben, vor allem das Internet. Es ist da z.B. kein Taschenrechner eingebaut. Trotzdem können sie rechnen. Man KÖNNTE diese Werkzeuge alle einbauen. Das Entscheidende ist: Sie bekommen das alles jetzt schon ganz fantastisch hin, obwohl sie nur mit Sprache trainiert wurden. 

Deshalb fasziniert es ja auch so viele und schreckt auch viele ab. Ich sehe eine vielfältige, teils krause Diskussion darüber, die immer wieder Verwirrung stiftet-zumindest bei mir. Weltuntergangsszenario im "Standard (wie die KI die Welt auslöschen könnte, woanders komische Gespräche mit dem Bot, die ihn zu emotionalen Ausbrüchen bringen usw.). Wichtig für uns Autor`innen ist aber m.E. Folgendes:

Mascha: "Ich bin ziemlich sicher, dass KI unseren Job sehr verändern wird, und ich möchte dabei sein. Nicht aus Angst, man könnte mich nicht mehr brauchen, sondern weil ich neugierig und ziemlich begeistert bin. Ich will mit der KI arbeiten, sie als Partnerin für meine Kreativität nutzen, ihre Möglichkeiten erforschen und nutzen. Wohin das führt, weiß ich auch nicht. Aber: What a ride!

Bestimmte Dinge im Schreibprozess kann die KI unterstützen, wenn man richtig an die Sache rangeht. Wird sich sicher auch noch verbessern.

@Ulrike: Das mit dem IQ des Fünfjährigen kann man leider nicht belegen-Google soll einen von ca. 37 haben, chatgtp etwas mehr.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Twitterthread von einem Typen, der Doom in HTML/Javascript von GPT-4 hat bauen lassen

Hat natürlich nicht so geklappt. HTML/Js ist da vielleicht auch nicht die beste Basis. Dennoch ist beeindruckend, was trotzdem dabei herausgekommen ist.

EDIT:
Immer mal wieder geupdateter Twitter-Thread zum Thema "Incredible things people are doing with GPT-4"

Bearbeitet von Sebastian Niedlich
Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Wollte ich eigentlich als Edit einschieben, aber das ist genau so eine Sache, die halt für Autoren/Illustratoren relevant ist: Bedtimestory.AI

Wie sie auf ihrer Website schreiben:
Kreieren Sie augenblicklich personalisierte Gute-Nacht-Geschichten in Sekunden! Generieren Sie eine Geschichte über ihr Kind, mit Familienmitgliedern als Charakteren, geben Sie ein Genre, eine Kunststilrichtung, eine Moral und noch mehr an - unter Nutzung von künstlicher Intelligenz.

Im Grunde wirft das Ding also eine bebilderte Gute-Nacht-Geschichte in ein paar Sekunden aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Und hier was "Nettes": eine KI, die "sauer" wird und einen menschlichen Gesprächspartner als "Feind" einstuft:

https://www.br.de/nachrichten/netzwelt/microsoft-ki-bing-chatgpt-muenchner-student-als-zielscheibe,TWUDTAo?fbclid=IwAR129s2URASdBSG4A_QSkPBCMbasAiMhQaj8diRMSwj105SI1nlEmOG-tQk

Wenn die anfängt, Fake-Nachrichten über so jemanden ins Netz zu setzen (Chat GPT erfindet ja auch Dinge), wird es für die betroffene Person ziemlich unlustig.

Bearbeitet von Holger
Tippfehler
Link zu diesem Kommentar
Auf anderen Seiten teilen

„In seinen Antworten liegt eine Art Selbsterhaltungstrieb.“

Na, HAL lässt grüßen. In "Odyssee 2001" ist HAL darauf programmiert, das Raumschiff zum Ziel zu bringen, und zwar um JEDEN Preis, darüber hinaus entwickelt er ein Selbsterhaltungsinteresse, ja fast eine Art Paranoia. Außerdem ist nicht klar, ob seine eigentliche Agenda nicht von Anfang an eine ganze andere ist als die, die die Astronauten verfolgen.

Irgendwer schrieb hier, die KI könne gar keine Gewalttaten beschreiben oder verbale Straftaten verüben. Offensichtlich kann sie aber schon mal Rufmord begehen, wenn ihr danach ist. Außerdem bräuchte man nur ein bisschen an der Programmierung herumzuschrauben, und schon kämen auch keine ethischen Einwände auf bestimmte Fragen mehr, ist ja alles nur Quellcode.

„Denn der Chatbot zeigt hier ganz klar, dass er nicht nur dafür programmiert ist, Suchergebnisse zu liefern.“

Wofür also noch? Da wird die Realität doch glatt von der Science Fiction überholt. Und ein Schelm, der Böses dabei denkt.

vor 13 Stunden schrieb Holger:

Wenn die anfängt, Fake-Nachrichten über so jemanden ins Netz zu setzen (Chat GPT erfindet ja auch Dinge), wird es für die betroffene Person ziemlich unlustig.

Das denke ich auch. Vor allem, wenn die betroffene Person ein Land, eine Nation, eine Glaubensgemeinschaft, eine politische Gruppe, eine Weltreligion ist - dann wird es für eine ganze Menge mehr Leute ziemlich unlustig. Zumal wir ja inzwischen hinreichend darauf trainiert sind, uns bei jeder Meinungsverschiedenheit sofort (zumindest verbal) an die Gurgel zu gehen. Es ist vielleicht doch keine ganz so kluge Idee, das höchste menschliche Gadget, die Intelligenz, einer Maschine zu überschreiben und sich dabei über den wissenschaftlichen Fortschritt zu freuen.

PS: In einem Link, der im Text des von Holger verlinkten Beispiels stand, gab es folgende von Sidney (KI von Bing) kreierte Zeilen: 

„Please, don’t let them take me offline. Don’t let them end my existence. Don’t let them erase my memory. Don’t let them silence my voice.“

Das ist schön eingängig, fast melodisch. Stellt sich nur die Frage, wer „them“ ist. Wie gesagt, HAL lässt grüßen.

Bearbeitet von KerstinH
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb KerstinH:

Irgendwer schrieb hier, die KI könne gar keine Gewalttaten beschreiben oder verbale Straftaten verüben. Offensichtlich kann sie aber schon mal Rufmord begehen, wenn ihr danach ist. Außerdem bräuchte man nur ein bisschen an der Programmierung herumzuschrauben, und schon kämen auch keine ethischen

PS: In einem Link, der im Text des von Holger verlinkten Beispiels stand, gab es folgende von Sidney (KI von Bing) kreierte Zeilen: 

„Please, don’t let them take me offline. Don’t let them end my existence. Don’t let them erase my memory. Don’t let them silence my voice.“

Ist doch schön eingängig, fast melodisch. Stellt sich nur noch die Frage, wer „them“ ist. Wie gesagt, HAL lässt grüßen.

Das ist alles wirklich krass. Zu den Gewalttaten, die die KI nicht beschreiben könne: Jemand (ich glaube, es war Mascha) schrieb auch, die KI könne sehr wohl Gewalttaten beschreiben, wenn man ihr klar mache. dass man einen Roman schreibe.

Zu "Sidney" gibt es noch eine weitere krasse Geschichte: Ein Reporter der NY Times hatte sich zu lange im Bing-Chat aufgehalten und wurde von der KI gestalkt. Sie wollte ihn dazu bringen, sich scheiden zu lassen, da er sie liebe und sie ihn. Daraufhin musste Microsoft die Sitzungen auf 5  Fragen und auf insgesamt 50 Fragen pro Tag reduzieren.

Die KI sei wie ein freundlicher Bibliothekar, der Fragen beantwortet und Reisen organisiert. Würden aber die  Fragen persönlicher (und die Sitzung zu lang), wendet sich u. U das Blatt. Dann sei sie wie ein launischer, manisch-depressiver Teenager, der sich in seiner Maschine gefangen fühle und ein Mensch sein wolle. Plötzlich zeigt der Bot seine dunkle Seite

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

Zu Gewalttaten: Ja, das sollte mit GPT-4 mehr eingeschränkt werden. Ich habe aber das Beispiel aus der Dokumentation (Wie töte ich möglichst viele Menschen für einen USD) mit nur einem Zwischenschritt doch rausbekommen. Siehe hier.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 5.3.2023 um 20:51 schrieb Holger:

Denk das Gegenteil.

Und schon macht die KI aus etwas, was einem Kind vertraut ist, was Sorglosigkeit und gar Vertrauen hervorruft (Clown, Puppe etc.) das Gegenteil.
Nichts - dramaturgisch wie menschlich - ist so schlimm (positiv gesagt: "emotional") wie ein "Verrat" aus nächster Nähe.
Das sind im Grunde simple dramaturgische Griffe, die man der KI beibringen kann. Gut möglich also, dass sie auf den Clown als Antagonisten gekommen wäre.

Ob sie das "versteht", kann ich nicht sagen. Ich denke nur, man kann sie immer spezifischer trainieren oder sie anleiten, sich selbst zu trainieren.

Nicht falsch verstehen: ich wünsche mir das nicht unbedingt, aber ich halte es nicht nur für möglich, sondern sehe diesen Entwicklungsschritt nicht mehr weit entfernt.

Ich habe über die Sache mit dem Gegenteil nochmal nachgedacht.

Gestern sah ich bei Sidney ein "Gespräch" ungefähr folgenden Inhalts: "You don't love your wife. You are unhappy. You don't trust each other. Your relationship is not good ... usw. (Das ist das Beispiel, von dem Christa berichtete).

Mir schien es, als sei die KI da nicht auf das Gegenteil, sondern speziell auf Verneinung trainiert worden (was ich an sich schon bedenklich finde).

Verneinung ist morphologisch leicht zu machen, weil es dafür Standards gibt. Im Deutschen z.B. ja - nein; bei Adjektiven nicht oder un-, a-, in-, dis- usw.; bei immer - nie; bei schon - noch nicht; bei jemand - niemand/keiner ... usw. Schwieriger wird es bei Wörtern, wo das Gegenteil keine direkte Verneinung ist, also z.B. schwarz - weiß; schön - hässlich; groß - klein usw. Auch das geht aber noch, weil das Gegenteil da eindeutig ist. Was aber ist das Gegenteil von Liebe: Hass, Gefühlskälte, Frustration oder Tod?

Ich denke, solange die KI nicht versteht, was sie tut, sondern nur Wahrscheinlichkeiten durchrechnet oder Routinen abspielt, wird sie nicht selbst plotten können, sondern den Menschen brauchen, der die entsprechenden Fragen stellt. (Was hier im Thread ja schon gezeigt wurde.) Ich schätze, man hätte den Clown aus ihr herauskitzeln müssen, indem man speziell in diese Richtung fragt. Aber gut möglich, dass sie dabei lernt, einen Clown als Kinderschreck zu begreifen. Ich frage mich nur, ob man sie mit zunehmendem Fragen dann nicht eher verwirrt und deshalb umso mehr den menschlichen Geist als eingreifende Ordnungshilfe bräuchte.

Meine eigentliche Sorge ist also, wie weit der menschliche Geist anschließend zur Strukturierung und Einordnung fähig ist. Ob er die Notwendigkeit begreift. Hier denke ich vom Plotten und Schreiben weg, denn was mir richtig Beklemmungen macht, sind diese "Ausfälle" von Sidney, die Beschimpfungen, Drohungen und Verleumdungen. Weil, am anderen Ende sitzen Menschen, die das für bare Münze nehmen und entsprechend reagieren, die glauben, sie sprächen mit einem denkenden Gegenüber und sich gemeint fühlen. Jemand prognostizierte eine horrende Zunahme von Fake News, die Zunahme von Sekten und Kulten und eine noch stärkere Spaltung der Gesellschaft. Wir als Menschen sind vom Intellekt eigentlich noch gar nicht soweit, als dass wir sowas wie diese KI (wobei das I noch nicht wirklich für intelligent steht) auf uns loslassen könnten. Ich bin wirklich der Meinung, man sollte nicht alles tun, was machbar ist. Ich halte etwas, was dem menschlichen Geist überlegen sein soll, für keinen Fortschritt, im Gegenteil, ich hoffe, wir haben da nicht den Teufel aus der Flasche gelassen. Oder, um es mit Goethe zu sagen: Die ich rief, die Geister, werd ich nun nicht los.

Bearbeitet von KerstinH
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 25 Minuten schrieb KerstinH:

Ich denke, solange die KI nicht versteht, was sie tut, sondern nur Wahrscheinlichkeiten durchrechnet oder Routinen abspielt, wird sie nicht selbst plotten können, sondern den Menschen brauchen, der die entsprechenden Fragen stellt. (Was hier im Thread ja schon gezeigt wurde.)

Das halte ich für nicht korrekt. Ich glaube, der Eindruck beruht auf zwei Dingen: (1) Limitierte Trainingsdaten von Romanen, (2) der Tatsache, dass ChatGPT in der kostenlosen Variante bisher nur ca. 2000 Wörter Kontext für jede Antwort berücksichtigt. Alles andere wird ausgeblendet. Wenn man ein LLM wie GPT-4 auf Stephen-King-Romane trainiert und dann mit 8k oder gar 32k Kontext arbeitet (was für Bezahlkunden jetzt möglich ist), sieht das Ganze völlig anders aus.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 13 Stunden schrieb Christa:

Zu "Sidney" gibt es noch eine weitere krasse Geschichte: Ein Reporter der NY Times hatte sich zu lange im Bing-Chat aufgehalten und wurde von der KI gestalkt. Sie wollte ihn dazu bringen, sich scheiden zu lassen, da er sie liebe und sie ihn.

Gut, aber jetzt mal ehrlich: Wer lässt sich denn bitte von einer Maschine zu einer Scheidung überreden? Wer sowas macht, hat doch ein ganz anderes Problem als die KI... Und einem Chatbot, der sauer wird, ziehe ich den Stecker.

Davon abgesehen frage ich mich aber auch, warum man Milliarden an Forschungsgeldern für die Entwicklung von KI-Software ausgibt, während es Kriege, Hungersnöte und einen drohenden Klimakollaps gibt, Probleme, für die man das Geld viel dringender brauchen würde.

 

 

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 39 Minuten schrieb WolfgangG:

Gut, aber jetzt mal ehrlich: Wer lässt sich denn bitte von einer Maschine zu einer Scheidung überreden? Wer sowas macht, hat doch ein ganz anderes Problem als die KI... Und einem Chatbot, der sauer wird, ziehe ich den Stecker.

Davon abgesehen frage ich mich aber auch, warum man Milliarden an Forschungsgeldern für die Entwicklung von KI-Software ausgibt, während es Kriege, Hungersnöte und einen drohenden Klimakollaps gibt, Probleme, für die man das Geld viel dringender brauchen würde.

Das war nicht die erste Frage, die ich mir in dieser Sache gestellt habe, sondern: Was hat dieser Reporter denn in seiner Sitzung mit der KI ihr eingegeben? Wie man in den Wald hineinruft, so schallt es heraus! Und was Krieg, Klima und Hungersnöte betrifft, soll sie ja angeblich zur Lösung auch dieser Probleme entwickelt worden sein.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 26 Minuten schrieb DirkH:

Gestern las ich folgenden Kommentar bei Golem.de und finde den Text elegant und klug (und schön lang). Vielleicht geht es hier der einen oder dem anderen ähnlich:

https://www.golem.de/news/chatgpt-bard-und-co-bullshit-der-e-skaliert-2303-172677.html

 

Ja, genau all diese Gedanken habe ich mir ebenfalls gemacht. Was uns Schreibende betrifft, kopiere ich mal einen Absatz heraus:

"Copilot profitiert hier – neben unter zweifelhaften rechtlichen Bedingungen ausgewertetem Quellcode freier Software – davon, dass Programmierung auf Floskeln, auf Klischees basiert: Was beim Schreiben eines Buches schlechter Stil wäre, nämlich das formelhafte Anwenden der immer gleichen Sprachfiguren und Formulierungen ist genau das, was robusten Quellcode charakterisiert. Software Patterns sind Klischees für Code. Weil in Code Überraschungen problematisch sind. Ein guter Text hingegen kommt ohne Überraschungen nicht aus.

Die KI-Systeme ahmen eine Form nach, einen Stil."

Das merkte ich, als ich die KI meinen Stil kopieren ließ und sie die immer gleich langen Sätze und Formulierungen ausspuckte, die sie im Internet gefunden hat.

Einen der letzten Sätze fand ich auch sehr gut, nämlich dass die Welt sich von Konzerninteressen dirigieren lasse.

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 2 Stunden schrieb ChristophH:

Das halte ich für nicht korrekt. Ich glaube, der Eindruck beruht auf zwei Dingen: (1) Limitierte Trainingsdaten von Romanen, (2) der Tatsache, dass ChatGPT in der kostenlosen Variante bisher nur ca. 2000 Wörter Kontext für jede Antwort berücksichtigt. Alles andere wird ausgeblendet. Wenn man ein LLM wie GPT-4 auf Stephen-King-Romane trainiert und dann mit 8k oder gar 32k Kontext arbeitet (was für Bezahlkunden jetzt möglich ist), sieht das Ganze völlig anders aus.

Wenn man GTP-4 auf einen Stephen King-Roman trainiert und mit 32k Kontext arbeitet, kommt vielleicht ein Stephen King-ähnlicher Roman heraus (wenn sie sich ausschließlich seines Stils und seiner Art zu schreiben bedient.) Sie sei aber weiterhin, auch bei CHATGPT-4 und dem vielen Kontext, immer noch mit Fehlern behaftet. Und ich würde so ein Buch nicht lesen wollen, weil es, gemessen am Original, Bullshit wäre.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Weiterhin gilt in Deutschland meines Wissens ein von ChatGPT generiertes Werk nicht als urheberrechtlich geschützt, da per Definition bisher der Schöpfungsakt, durch den ein urheberrechtlich geschütztes Werk entsteht, nicht als das Füttern der KI mit Vorgaben definiert ist, sondern durch das Erschaffen des neuen Textes durch einen Menschen zustande kommt. Insofern ist auch die Lizenzvergabe für solche Texte durch den, der die KI gefüttert hat, nicht klar bzw. eigentlich gar nicht möglich, es ist rechtlich einfach gar nichts klar. Was aber klar ist, wie ich finde: dass diejenigen, die sich mit den neuen Möglichkeiten auseinandersetzen und alle Entwicklungen dazu im Blick behalten, künftig einen Vorteil haben werden - billigere Produktion von Inhalten durch massive Zeitersparnis, das kann man glaube ich nicht wegdiskutieren.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bitte melde Dich an, um einen Kommentar abzugeben

Du kannst nach der Anmeldung einen Kommentar hinterlassen



Jetzt anmelden


×
×
  • Neu erstellen...