Zum Inhalt springen
Sebastian Niedlich

KI - Künstliche Intelligenz MEGATHREAD

Empfohlene Beiträge

Hier ein Artikel (auf englisch) über die Möglichkeit, dass ChatGPT4 erste Anzeichen von “artificial general intelligence” (AGI) zeigt. Das ging schneller, als selbst ich erwartet habe:

https://www.popularmechanics.com/technology/robots/a43906996/artificial-intelligence-shows-signs-of-human-reasoning/?utm_medium=social-media&utm_campaign=socialflowFBPOP&utm_source=facebook&fbclid=IwAR09755lbfvSG2McZG3Gc-3bBRl5lQ1TnapaQA-azxlNWEzBSxgiZTCpEqU

Wir können uns jetzt alle ausrechnen, wie das in fünf Jahren aussieht, oder in drei, oder noch Ende dieses Jahres. Die Maschinenstürmer, die Weber, die Hufschmiede unserer Zeit werden nicht mal Atem holen können, geschweige denn Pläne schmieden, was dagegen zu unternehmen sei.

Ich bin mittlerweile absolut sicher, dass in fünf Jahren 90% aller GrafikerInnen arbeitslos sein werden, 90% aller Genre-AutorInnen, 90% aller Coder, 100% aller Steuerberater. Das wird unsere Gesellschaft vollständig verändern, auch politisch, denn wenn eine AGI Probleme wie zb Wirtschaftskrisen lösen kann, warum ihr nicht die Macht übergeben? Eine Frage der Zeit.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Und wenn ihr euch fragt, wie so etwas überhaupt möglich sein kann, dann fragt ihr genau dasselbe wie die Wissenschaftler bei Microsoft. Aus dem im Artikel erwähnten Paper:

What is actually happening? Our study of GPT-4 is entirely phenomenological: We have focused on the surprising things that GPT-4 can do, but we do not address the fundamental questions of why and how it achieves such remarkable intelligence. How does it reason, plan, and create? Why does it exhibit such general and flexible intelligence when it is at its core merely the combination of simple algorithmic components—gradient descent and large-scale transformers with extremely large amounts of data? These questions are part of the mystery and fascination of LLMs, which challenge our understanding of learning and cognition, fuel our curiosity, and motivate deeper research. Key directions include ongoing research on the phenomenon of emergence in LLMs (see [WTB+22] for a recent survey). Yet, despite intense interest in questions about the capabilities of LLMs, progress to date has been quite limited with only toy models where some phenomenon of emergence is proved [BEG+22, ABC+22, JSL22]. One general hypothesis [OCS+20] is that the large amount of data (especially 94 the diversity of the content) forces neural networks to learn generic and useful “neural circuits”, such as the ones discovered in [OEN+22, ZBB+22, LAG+22], while the large size of models provide enough redundancy and diversity for the neural circuits to specialize and fine-tune to specific tasks. Proving these hypotheses for large-scale models remains a challenge, and, moreover, it is all but certain that the conjecture is only part of the answer. On another direction of thinking, the huge size of the model could have several other benefits, such as making gradient descent more effective by connecting different minima [VBB19] or by simply enabling smooth fitting of high-dimensional data [ES16, BS21]. Overall, elucidating the nature and mechanisms of AI systems such as GPT-4 is a formidable challenge that has suddenly become important and urgent.

Deutsche AI-Übersetzung (deepl):

Was passiert da eigentlich?
Unsere Studie über GPT-4 ist rein phänomenologisch: Wir haben uns auf die überraschenden Dinge konzentriert, die GPT-4 kann
Wir haben uns auf die überraschenden Dinge konzentriert, die GPT-4 kann, aber wir haben uns nicht mit den grundlegenden Fragen beschäftigt, warum und wie es eine so bemerkenswerte Intelligenz erreicht. Wie kann es denken, planen und erschaffen? Warum verfügt es über eine so allgemeine und flexible Intelligenz, wenn es
wenn sie im Kern nur aus der Kombination einfacher algorithmischer Komponenten besteht - Gradientenabstieg und groß angelegte
Transformatoren mit extrem großen Datenmengen? Diese Fragen sind Teil des Geheimnisses und der Faszination von LLMs, die unser Verständnis von Lernen und Kognition in Frage stellen, unsere Neugierde anregen und uns motivieren vertiefte Forschung. Zu den Hauptrichtungen gehören die laufenden Forschungsarbeiten zum Phänomen der Emergenz bei LLMs (siehe [WTB+22] für einen aktuellen Überblick). Doch trotz des intensiven Interesses an Fragen zu den Fähigkeiten von LLMs,
sind die Fortschritte bisher recht begrenzt, da nur Spielzeugmodelle existieren, in denen ein gewisses Phänomen der Emergenz nachgewiesen wird
[BEG+22, ABC+22, JSL22]. Eine allgemeine Hypothese [OCS+20] ist, dass die große Menge an Daten (insbesondere 94 die Vielfalt des Inhalts) neuronale Netze dazu zwingt, generische und nützliche "neuronale Schaltkreise" zu erlernen, wie die wie die in [OEN+22, ZBB+22, LAG+22] entdeckten, während die große Größe der Modelle genügend Redundanz
und Vielfalt, damit sich die neuronalen Schaltkreise spezialisieren und auf bestimmte Aufgaben abstimmen können. Der Nachweis dieser Hypothesen
für große Modelle zu beweisen, bleibt eine Herausforderung, und darüber hinaus ist es so gut wie sicher, dass die Vermutung nur
Teil der Antwort ist. Eine andere Denkrichtung ist, dass die enorme Größe des Modells mehrere andere Vorteile haben könnte
Vorteile haben, wie z. B. einen effektiveren Gradientenabstieg durch die Verbindung verschiedener Minima [VBB19] oder einfach durch
eine reibungslose Anpassung hochdimensionaler Daten ermöglicht [ES16, BS21]. Insgesamt ist die Aufklärung der Natur und der Mechanismen von KI-Systemen wie GPT-4 eine gewaltige Herausforderung, die plötzlich wichtig und dringend geworden ist.

In kurzen Worten: die AI ist eine Blackbox. Niemand hat eine genaue Ahnung, was in dieser Blackbox geschieht. Niemand kann also sagen, was auf uns zukommen wird. Alle verharren in Staunen und unternehmen nichts.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Der Geist ist jedenfalls aus der Flasche. Bin auf die erste ChatCPT-Sekte gespannt. :s12

Inspiration exists, but it has to find us working! (Pablo Picasso)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor einer Stunde schrieb Ramona:

Bin auf die erste ChatCPT-Sekte gespannt. 

Die gibt es doch schon: im Montségur-Autorenforum. 

 

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 4 Stunden schrieb FlorianV:

Niemand hat eine genaue Ahnung, was in dieser Blackbox geschieht. Niemand kann also sagen, was auf uns zukommen wird. Alle verharren in Staunen und unternehmen nichts.

Sam Altman will ja selbst was gegen sein Produkt unternehmen. (s.o.)

vor 1 Stunde schrieb Ramona:

Der Geist ist jedenfalls aus der Flasche. Bin auf die erste ChatCPT-Sekte gespannt. :s12

Die gibt es nicht nur bei Montségur. Aber ich hätte nicht die Zeit und Lust herauszufinden, wie viele Sekten es inzwischen sind. Derweil habe ich an meinem Roman gearbeitet-noch wird son Zeugs ja gelesen! ;D

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 17 Stunden schrieb DirkH:

Die gibt es doch schon: im Montségur-Autorenforum. 

*lolllll*

Bearbeitet von Ramona

Inspiration exists, but it has to find us working! (Pablo Picasso)

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich
  • Okay, die große Sache diese Woche war wahrscheinlich die Anhörung vor dem Senat, in dem Sam Altman und einige andere KI-Größen praktisch darum gebettelt haben, dass die Entwicklung von KIs besser reguliert werden soll. @Christa hatte ja oben schon darüber geschrieben. Was man dabei vielleicht erwähnen sollte, ist, dass die Senatoren dabei sehr deutlich gemacht haben, dass sie überhaupt keine Ahnung haben, was eigentlich los ist und wie sie reagieren sollen. Die Politik ist hier buchstäblich überfordert. (Und das bezieht sich jetzt nur auf die USA, wo man zumindet im Ansatz zu begreifen scheint, dass da was reguliert werden muss. In Deutschland hört man zu dem Thema ja nahezu nichts.) AI Explained hat ein gutes Video gemacht, wo auf die wesentlichen Punkte eingegangen wird.
  • Ansonsten war das auch die Woche der KI-Roboter:
    • Amazon will einen neuen KI-gesteuerten Haushaltsroboter mit dem Projektnamen Burnham veröffentlichen. (Ohnehin hat sich Amazon bisher in der ganzen KI-Geschichte recht bedeckt gehalten, aber gewisse Stellenangebote legen nah, dass Amazon da auch noch was in der Hinterhand hat.)
    • Sanctuary AI schickt einen Unversalroboter namens Phoenix ins Rennen, der KI gesteuert ist.
    • Und kurz nach der Ankündigung von Sanctuary AI kam dann auch gleich Elon Musk mit Tesla um die Ecke und stellte den Roboter Optimus vor.
    • Auch wenn einige Leute die Roboter als Lachnummer abtun, weil sie langsam sind etc.: Die Dinger sind KI gesteuert, lernen dazu und passen sich an ihre Umgebung an. Sie können Dinge tragen, wenn auch langsam, und stellen im Moment die schlechteste Version, die es davon geben wird, dar. In Zukunft werden sich zwar nicht viele Leute Roboter leisten können, aber meine(!) vorsichtige Schätzung wäre, dass bis 2030 zumindest ein paar Roboter irgendwo arbeiten und vielleicht auch in einigen Haushalten wichtige Arbeiten übernehmen. Ob man hier potentielle Terminator-Vibes bekommt, sei jetzt mal dahingestellt ...
  • Jizai Arms, eine japanische Roboter-Firma, hat ein System entwickelt, mit dem man quasi sechs zusätzliche Arme bekommt, die durch KI-Unterstützung laufen. Zugegeben ist die Präsentation etwas ... merkwürdig, da die mehr wie ein Kunstprojekt statt einer konkreten Vorstellung aufgemacht ist. Im Grunde wäre das eine KI-gestützte Hilfe für Personen mit fehlenden Extremitäten. Oder man wird zu Doc Ock, dem Spider-Man Bösewicht ...
  • OpenAI hat auch ein paar interessante Ankündigungen gemacht:
    • ChatGPT kommt zumindest für iPhone-Nutzer aufs Telefon. (Wenn auch erstmal nur in Amerika, wenn ich das richtig sehe. Android und andere Länder sollen dann demnächst folgen.) Kleine Anmerkung: Es gibt ja bereits etliche Apps, die behaupten, ChatGPT auf dem Telefon laufen zu lassen. Fallt da nicht auf irgendwelche Scammer herein. Da gibt es einige, die lediglich eure Daten abgreifen wollen. OpenAI wäre der offizielle Hersteller.
    • ChatGPT hat jetzt Plugins für die Plus-User freigeschaltet. Internet-Zugriff, Text-To-Speech etc. pp. sind jetzt wohl verfügbar.
  • Zoom will den Chatbot von Anthropic, Claude, einbinden. Zur Erinnerung: Claude ist der Chatbot, der quasi Tokens ins Romanlänge verarbeiten bzw. auswerfen kann.
  • Meta (Mutterkonzern von Facebook) kündigt eigenen KI-Chip an. Dieser soll vor allem für LLMs effektiver sein. Facebook bastelt also nicht nur softwareseitig an KI, sondern auch hardwareseitig.
  • Drag your GAN ist eine interaktive, punktgesteuerte und KI-gestützte Bildmanipulationssoftware, die ... ziemlich abgefahrenes Zeug macht. Die KI schaut sich quasi die Bilder an und lässt einen die so manipulieren, dass man die Objekte im Bild quasi in allen erdenklichen Posen oder Gesichtsausdrücken stellen kann. Man möchte den Hund, den man fotografiert hat, gerne hechelnd sehen? Kein Problem. Die Katze daneben soll mit den Augen zwinkern? Kein Problem ...
  • Flawless will mit seiner KI in Zukunft Filme synchronisieren und die Lippenbewegungen anpassen. Wer den Artikel nicht lesen will: Hier auf Twitter kann man sich ein Beispiel ansehen.
    Im Grunde dasselbe, was Google mit seiner KI bei Videos machen will, nur dass das hier bereits bei einem Film angewendet wurde und teure Reshoots dadurch abgewendet werden konnten. In Kombination mit der Sprach-KI, die die Originalstimmen in allen möglichen Sprachen sprechen lässt, bedeutet das praktisch, dass in Zukunft Filme von den Originalsprechern in allen möglichen Sprachen gesprochen werden, auch wenn die die gar nicht sprechen können. Und die Lippenbewegungen sind an die jeweilige Sprache angepasst. Synchronbuchschreiber und Synchronsprecher wären damit praktisch arbeitslos.
  • Wo wir von Google und seiner KI-gestützten Sprach- und Lippenbewegungsanpassung sprechen: Ich vergaß zu erwähnen, dass YouTube natürlich Google gehört. Es ist vermutlich nicht zu weit hergeholt, dass in naher Zukunft Videos nicht nur automatisch untertitelt sondern in allen erdenklichen Sprachen verfügbar sein werden.
  • Apple verbietet seinen Angestellten ChatGPT zu benutzen, weil man Leaks fürchtet. Vielleicht eine kleine Erinnerung daran, dass man darüber nachdenken sollte, was man bei ChatGPT so eingibt, falls man es benutzt.
  • Hippocratic AI will die medizinische Ausbildung mit Hilfe von KI revolutionieren...
  • Wo wir gerade von Medizin sprechen: An der Universität von Alberta hat man mit Hilfe von KI ein Modell entwickelt, welches erste Anzeichen von Alzheimer aufgrund von Sprache erkennt. Momentan hat es wohl eine 70-75%ige Genauigkeit und könnte später mal in Smartphones verwendet werden. (Dass das natürlich auch zu erheblichen datenschutztechnischen Fragen führen kann, lassen wir jetzt einfach mal so im Raum stehen ...)
  • EPIC hat Unreal Engine 5.2 vorgestellt, welches den Machine Learning Deformer enthält, im Grunde ein durch KI-Lernen gestütztes System, um realistische Muskelbewegungen usw. zu simulieren. Hier kann man sich ein Video dazu ansehen.
  • TED-Talk mit Sal Khan von Khan Academy darüber, wie er hofft, dass KI nicht das Bildungswesen zerstört, sondern rettet.
  • Coca-Cola-Werbung, die Stable Diffusion KI-Kunst benutzt. Vielleicht ein Beispiel, dass die neuen Möglichkeiten einfach zu einer Änderung der Kunst, nicht zu deren Zerstörung führt.
  • ChatGPT im Zusammenhang Text-To-Speech von ElevenLabs in einer VR-Party genutzt, um z.B. Leute mit sozialen Ängsten zu unterstützen.
  • TED-Talk über die Kreativität von Deepfakes und die beunruhigende Zukunft von KI. Man kann Deepfakes jetzt also praktisch sofort umsetzen.
  • Für die Gamer interessant: Jemand hat Skyrim mit ChatGPT verbunden und so allen NPCs inkl. Text-To-Speech und Sprachanpassung, damit alle NPC so klingen, wie sie klingen sollen, verpasst. Man kann sich also mit allen "Leuten" im Spiel tatsächlich unterhalten. Die Frage, wie das in Zukunft in Spielen sein wird, kommt da natürlich auf. Im Grunde kann man NPCs Persönlichkeiten verpassen und kann sich dann mit denen wie mit richtigen Personen unterhalten. Gerade in Rollenspielen wie der "Elder Scrolls"-Reihe würde das noch mehr dazu führen, dass man in die Welt "eintaucht".
Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Ergänzung noch:

In den USA streiken ja momentan die Drehbuchautoren, u.a. weil sie natürlich zu wenig Geld bekommen und weil diese ganze KI-Geschichte ungeklärt ist. Insofern hat es in den Kreisen gerade große Wellen geschlagen, als Sudowrite seine Integration von KI bekanntgab.

Sudowrite ist damit praktisch das Tool, von welchem wir Autoren hier schon eine Weile sprechen. Es hilft beim Schreiben von Romanen, Drehbüchern etc. oder schreibt sie gleich überwiegend selbst. Es lektoriert, liefert Ideen, schreibt ausführliche Beschreibungen, hilft beim Planen, visualisiert ggf. Charaktere für eine usw.

Natürlich ist es in erster Linie ein Tool, welches Autoren unterstützen soll. Dass dieses Tool missbraucht werden kann ... tja ... das ist halt die Berfürchtung für viele Leute in der Branche.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 1 Stunde schrieb Sebastian Niedlich:

In diesem Überblick sehe ich einige ganz vernünftige Entwicklungen, @Sebastian Niedlich. jemand, der den Notruf betätigt, wenn eine ältere Person gestürzt ist, daran erinnert, dass der Herd ausgeschaltet werden muss oder rausfindet, wo der Schlüssel liegt. Auch sonst, Alzheimer-Spracherkennung usw. - die sechs Arme sehen allerdings aus wie aus einem schlechten SiFi-Film. Ich habe noch etwas gefunden, wo ein 82-jähriger Selbstverleger ein Buch geschrieben hat und meint, jeder Autor werde ChtGPT in Zukunft nutzen. Das kann er meinen, ob sie es tun oder ob die Verlage das je verlangen werden, steht auf einem anderen Blatt. Auf jeden Fall hat er recht damit (und natürlich auch du) , wenn er sagt, die Texte können immer nur so gut sein wie die Prompts, die man eingibt. Ich erkenne inzwischen auf den ersten Blick Texte mit schlechten und ungenügenden Prompts und kann auch selbst gute Szene, Ideen und Dialoge erzeugen. Das Komische ist nur, dass ich dann immer keine Lust habe, die Vorschläge der KI kreativ zu überarbeiten. Woran mag das wohl liegen? ChatGPT für Schrifsteller

Dieses Sudowrite kann man ja kostenlos testen, wie ich gesehen habe, schreibt das Programm noch viel schneller als ChatGPT.

Bearbeitet von Christa
Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 6 Stunden schrieb Sebastian Niedlich:

Amazon will einen neuen KI-gesteuerten Haushaltsroboter mit dem Projektnamen Burnham veröffentlichen. (Ohnehin hat sich Amazon bisher in der ganzen KI-Geschichte recht bedeckt gehalten, aber gewisse Stellenangebote legen nah, dass Amazon da auch noch was in der Hinterhand hat.)

Ich schätze mal, der KI-gesteuerte Lagerarbeitsroboter, vielleicht mit dem Projektnamen "Malochius", ist auch schon längst in Arbeit … :s17 … aber vorerst zur internen Verwendung.

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 14 Stunden schrieb AndreasE:

Ich schätze mal, der KI-gesteuerte Lagerarbeitsroboter, vielleicht mit dem Projektnamen "Malochius", ist auch schon längst in Arbeit … :s17 … aber vorerst zur internen Verwendung.

Auch wenn's eigentlich traurig klingt … *tränenlach*

Inspiration exists, but it has to find us working! (Pablo Picasso)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 3 Stunden schrieb DirkH:

Dieses Kochbuch und das Foto zeigen einfach nur, dass die KI nicht kochen kann und auch niemals können wird. Weil sie nicht weiß, wie es schmeckt.

Eine Garnele ist rund und die Spagetti tanzen einen ungesunden Twist. Die Schüler hätten eingeben müssen: Mach alle Garnelen mit Kopf und Schwanz, und die Spagetti leg so hin, dass sie kein Eigenleben führen.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Okay, ich würde schätzen Adobe muss sich demnächst umstrukturieren ... ohne die meisten Grafiker, die mit Photoshop arbeiten ebenfalls.

 

Link zu diesem Kommentar
Auf anderen Seiten teilen

Am 23.5.2023 um 21:49 schrieb FlorianV:

Aber Adobe ist natürlich schon dran. Die 90% Grafiker noch nicht, befürchte ich:

 

Danke, Florian, für die Videos.

Interesant an dem Film von Adobe finde ich zwei Stellen, an denen der Moderator seine Begeisterung nicht mehr im Zaum halten kann und (sinngemäß)  ausruft: "Boah, damit kann man so viele tolle Sachen erstellen und zum Beispiel verwenden für  .. äh... wofür das eigentlich gut ist ... äh.... also ich fühle mich davon ganz doll inspiriert, sofort mit Photoshop noch mehr zu machen."  :-?

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 47 Minuten schrieb DirkH:

"Boah, damit kann man so viele tolle Sachen erstellen und zum Beispiel verwenden für  .. äh... wofür das eigentlich gut ist ... äh....

Das habe ich auch gedacht. :s01 Ist ja schön, dass die Löwen x-mal das Maul öffnen und wieder schließen, und danach nur ein bisschen seltsam aussehen, aber wozu braucht man das? Fotos von Löwen in allen denkbaren Varianten gibt es doch genug.

Dass man mit den Programmen z.B. Cover machen kann habe ich zwar verstanden, aber damit sie gut aussehen wird man - wie bisher - wohl einiges Können und Erfahrung brauchen.

Doch nur ein neues Werkzeug?

Man gräbt keine goldenen Halsbänder aus dem Boden. (John Vorhaus "Handwerk Humor")

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Man merkt, dass ihr nicht die Leute seid, für die das wirklich interessant ist. ;)

In dem Firefly-Video von Florian oben kann man ein paar schon länger bekannte Dinge (also ein paar Wochen her, siehe frühere Postings von mir) sehen, die an sich schon bemerkenswert sind. Firefly generiert auf Basis von Adobe Stock Photos trainierter KI Bilder. Das Besondere hier ist also, dass es quasi wie Midjourney funktioniert, aber rechtlich einwandfrei sein sollte. (Was bei Midjourney eher fraglich ist. Bei Adobe Stock gibt's da auch ein paar Kleinigkeiten, aber das führt hier zu weit.) Und die Möglichkeit Text mit Strukturen und Bildelementen zu generieren, ist halt der absolute Knaller, weil so etwas nur mit sehr, sehr, sehr viel Aufwand zu realisieren war. Jetzt hat man es quasi im Handumdrehen erledigt. Das erleichtert Grafikdesignern ENORM die Arbeit. (Könnte aber eben auch dazu führen, dass dadurch weniger Leute gebraucht werden. Es gibt immer Positives und Negatives.)

vor einer Stunde schrieb Beate K.:

Das habe ich auch gedacht. :s01 Ist ja schön, dass die Löwen x-mal das Maul öffnen und wieder schließen, und danach nur ein bisschen seltsam aussehen, aber wozu braucht man das? Fotos von Löwen in allen denkbaren Varianten gibt es doch genug.

Das ist ein Beispiel. Es geht nicht um Löwen. Es geht um die Möglichkeit, die die KI da bietet. Beispielsweise wird es in Zukunft kein Problem mehr sein, wenn jemand beim Familienfoto die Augen geschlossen hatte. Dann macht man sie halt hinterher wieder auf. Oder Onkel Otto der alte Griesgram hat mal wieder grimmig geschaut? Egal, zaubern wir ihm ein Lächeln aufs Gesicht. Der Familienhund hat sich gerade bewegt, als man das Foto gemacht hat, aber vorher hat er so süss rumgelegen und gehechelt? Na, dann drehen wir den Kopf jetzt wieder so hin, wie er war und auch das Hecheln können wir wieder herstellen.
Das sind Dinge, die man vorher auch machen konnte. Mit sehr viel Aufwand. Der wäre jetzt nicht mehr nötig. Zum Teil wäre so etwas u.U. auch gar nicht möglich gewesen. Gibt es viele Bilder von Löwen? Ja, klar ... aber vielleicht genau in dem Licht oder an dem Ort? Eher nicht.

Wobei mit den Möglichkeiten von "Draw Your GAN" und dem neuen Photoshop vielleicht alles möglich ist. Photoshop hat nämlich gerade "Generative Fill" freigeschaltet. Und auch wenn das z.T. noch etwas krude aussieht, hat man doch immer mehr den Eindruck, dass bald nichts mehr Unmöglich ist. Hier ein Video, was ein paar tolle Möglichkeiten zeigt:

Soweit zu den Designern und Fotografen.

Ansonsten will ich hier noch zwei Videos von AI Explained teilen, die sich mit dem "Code Interpreter" von ChatGPT befassen. Ich hatte darüber ja schon ein paar Male was geschrieben, vor allem, dass es Datenanalysten in weiten Teilen überflüssig macht. (Man wird immer noch Leute brauchen, die die Daten überprüfen, aber alleine die Geschwindigkeit, mit der hier Auswertungen gemacht werden ... ich halte es nicht für zu aus der Luft gegriffen, dass man hier von einer Reduzierung der nötigen Personen um 50% oder mehr sprechen kann.)

Und hier das zweite Video:

Das ist vor allem auch interessant, weil man den Code Interpreter als kleinen Workaround nutzen kann, um das Kontext-Limit zu überschreiten. Theoretisch wäre es hier ja möglich ganze Bücher als Grundlage für einen Prompt einlesen zu lassen. Meiner Meinung wäre es hier ggf. möglich ein Buch komplett von einer KI schreiben zu lassen, ohne dass die KI zwischendrin den Kontext verliert, weil die Token nicht ausreichen. (Ein Problem, an dem wir an anderer Stelle schon gesprochen haben.) Man würde hier halt einfach immer wieder Text aus einer Datei generieren lassen, in die man vorher alle generierten Texte eingespeichert hat. (Das ist jetzt zumindest meine - vielleicht sehr naive, ich weiß es nicht - Vorstellung, wie man das machen könnte. Ausprobieren kann ich das nicht, weil ich nicht für ChatGPT bezahle.)

Man darf natürlich nicht vergessen, dass man OpenAI damit aber immer auch die Daten, die man da hineinspielt, zukommen lässt.

Erneut: Man muss sich vor Augen halten, dass die Möglichkeiten, die sich einem dadurch bieten, noch nicht voll ausgelotet sind. Nicht allzu viele Personen haben bis jetzt Zugriff auf diese Funktion. Nur ein Teil der Leute, die GPT4 benutzen, haben schon den Code Interpreter zur Verfügung, wobei es, glaube ich, jetzt nach und nach ausgespielt wird. Auf was für Ideen da Leute noch kommen werden, was man damit anstellen kann, werden die nächsten Wochen zeigen. Und es handelt sich hier um die schlechteste Version des Ganzen, die es jemals geben wird. Also es wird nur "besser", wenn man so will. (Das ist natürlich eine Frage der persönlichen Ansicht.)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 25 Minuten schrieb Sebastian Niedlich:

Man merkt, dass ihr nicht die Leute seid, für die das wirklich interessant ist. ;)

In dem Firefly-Video von Florian oben kann man ein paar schon länger bekannte Dinge (also ein paar Wochen her, siehe frühere Postings von mir) sehen, die an sich schon bemerkenswert sind. Firefly generiert auf Basis von Adobe Stock Photos trainierter KI Bilder. Das Besondere hier ist also, dass es quasi wie Midjourney funktioniert, aber rechtlich einwandfrei sein sollte. (Was bei Midjourney eher fraglich ist. Bei Adobe Stock gibt's da auch ein paar Kleinigkeiten, aber das führt hier zu weit.) Und die Möglichkeit Text mit Strukturen und Bildelementen zu generieren, ist halt der absolute Knaller, weil so etwas nur mit sehr, sehr, sehr viel Aufwand zu realisieren war. Jetzt hat man es quasi im Handumdrehen erledigt. Das erleichtert Grafikdesignern ENORM die Arbeit. (Könnte aber eben auch dazu führen, dass dadurch weniger Leute gebraucht werden. Es gibt immer Positives und Negatives.)

Das ist ein Beispiel. Es geht nicht um Löwen. Es geht um die Möglichkeit, die die KI da bietet. Beispielsweise wird es in Zukunft kein Problem mehr sein, wenn jemand beim Familienfoto die Augen geschlossen hatte. Dann macht man sie halt hinterher wieder auf. Oder Onkel Otto der alte Griesgram hat mal wieder grimmig geschaut? Egal, zaubern wir ihm ein Lächeln aufs Gesicht. Der Familienhund hat sich gerade bewegt, als man das Foto gemacht hat, aber vorher hat er so süss rumgelegen und gehechelt? Na, dann drehen wir den Kopf jetzt wieder so hin, wie er war und auch das Hecheln können wir wieder herstellen.
Das sind Dinge, die man vorher auch machen konnte. Mit sehr viel Aufwand. Der wäre jetzt nicht mehr nötig. Zum Teil wäre so etwas u.U. auch gar nicht möglich gewesen. Gibt es viele Bilder von Löwen? Ja, klar ... aber vielleicht genau in dem Licht oder an dem Ort? Eher nicht.

Wobei mit den Möglichkeiten von "Draw Your GAN" und dem neuen Photoshop vielleicht alles möglich ist. Photoshop hat nämlich gerade "Generative Fill" freigeschaltet. Und auch wenn das z.T. noch etwas krude aussieht, hat man doch immer mehr den Eindruck, dass bald nichts mehr Unmöglich ist. Hier ein Video, was ein paar tolle Möglichkeiten zeigt:

Soweit zu den Designern und Fotografen.

Ansonsten will ich hier noch zwei Videos von AI Explained teilen, die sich mit dem "Code Interpreter" von ChatGPT befassen. Ich hatte darüber ja schon ein paar Male was geschrieben, vor allem, dass es Datenanalysten in weiten Teilen überflüssig macht. (Man wird immer noch Leute brauchen, die die Daten überprüfen, aber alleine die Geschwindigkeit, mit der hier Auswertungen gemacht werden ... ich halte es nicht für zu aus der Luft gegriffen, dass man hier von einer Reduzierung der nötigen Personen um 50% oder mehr sprechen kann.)

Und hier das zweite Video:

Das ist vor allem auch interessant, weil man den Code Interpreter als kleinen Workaround nutzen kann, um das Kontext-Limit zu überschreiten. Theoretisch wäre es hier ja möglich ganze Bücher als Grundlage für einen Prompt einlesen zu lassen. Meiner Meinung wäre es hier ggf. möglich ein Buch komplett von einer KI schreiben zu lassen, ohne dass die KI zwischendrin den Kontext verliert, weil die Token nicht ausreichen. (Ein Problem, an dem wir an anderer Stelle schon gesprochen haben.) Man würde hier halt einfach immer wieder Text aus einer Datei generieren lassen, in die man vorher alle generierten Texte eingespeichert hat. (Das ist jetzt zumindest meine - vielleicht sehr naive, ich weiß es nicht - Vorstellung, wie man das machen könnte. Ausprobieren kann ich das nicht, weil ich nicht für ChatGPT bezahle.)

Man darf natürlich nicht vergessen, dass man OpenAI damit aber immer auch die Daten, die man da hineinspielt, zukommen lässt.

Erneut: Man muss sich vor Augen halten, dass die Möglichkeiten, die sich einem dadurch bieten, noch nicht voll ausgelotet sind. Nicht allzu viele Personen haben bis jetzt Zugriff auf diese Funktion. Nur ein Teil der Leute, die GPT4 benutzen, haben schon den Code Interpreter zur Verfügung, wobei es, glaube ich, jetzt nach und nach ausgespielt wird. Auf was für Ideen da Leute noch kommen werden, was man damit anstellen kann, werden die nächsten Wochen zeigen. Und es handelt sich hier um die schlechteste Version des Ganzen, die es jemals geben wird. Also es wird nur "besser", wenn man so will. (Das ist natürlich eine Frage der persönlichen Ansicht.)

Nochmal vielen Dank, dass du uns auf dem laufenden hältst! ich habe das Gefühl, dass die Entwicklung im Moment tatsächlich galoppiert. Ich benutze Photoshop und der Takt der Neuerungen erhöht sich gerade erheblich. Die "Neuronal Filter" werden ständig verbessert und erweitert und erleichtern die Arbeit signifikant. Auch die Maskierungswerkzeuge werden immer besser. Und bei allem zieht natürlich die KI im Hintergrund die Strippen.

LG

Martin

_________________________________________________

www.martinconrath.de

Jede Art des Schreibens ist erlaubt - nur nicht die langweilige (Voltaire)

Link zu diesem Kommentar
Auf anderen Seiten teilen

vor 39 Minuten schrieb Sebastian Niedlich:

Oder Onkel Otto der alte Griesgram hat mal wieder grimmig geschaut? Egal, zaubern wir ihm ein Lächeln aufs Gesicht.

Der arme Onkel Otto.

vor 41 Minuten schrieb Sebastian Niedlich:

Man merkt, dass ihr nicht die Leute seid, für die das wirklich interessant ist. ;)

 

Das ist falsch, Sebastian. Wenn ich mich nicht für die Entwicklung interessieren würde, würde ich diesen Thread nicht verfolgen. Ich sehe das meiste nur kritisch und bin weniger aufgeregt. Aber das hat nichts mit mangelndem Interesse zu tun. Im Gegenteil: Es ist hochinteressant, wenn ein Fachmann von Adobe ins Stottern gerät, wenn er erklären soll, wozu all die Neuerungen gut sein sollen.

Sagt Abraham zu Bebraham: Kann ich mal dein Cebraham?

Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich

Ja, für Leute wie mich, die sich seit Jahren mit Photoshop beschäftigen, sind die neuen Möglichkeiten tatsächlich "mindblowing". (Normalerweise hasse ich die Bezeichnung, weil irgendwie jeder zweite Hansel im Internet meint, das bei jeder kleinen KI-Geschichte sagen zu müssen, aber in dem Fall bin ich auch mal dabei.)

Ich habe vor zwanzig Jahren mal für einige Zeit an Photoshop-Wettbewerben teilgenommen. Einer der ersten Wettbewerbe, an dem ich teilgenommen habe, hatte als Grundlage das Bild von einer Katze. Ich habe es damals so "umgeshoppt", dass die Katze wie ein Löwe brüllt. Dafür habe ich Stunden gebraucht. Mit den heutigen Möglichkeiten würde ich nur noch ein paar Minuten brauchen. Wahnsinn.

Dinge irgendwo einfügen und die Schatten und Reflexionen stimmen? War praktisch unmöglich oder mit sehr, sehr, sehr viel Arbeit und Zeit verbunden. Jetzt? Wow.

Und, wer es bisher noch nicht mitbekommen hat:

  • Windows kriegt den KI-Copiloten. Mit den neuesten Windows 11 Updates kriegt man quasi die KI-Unterstützung dazu. Im Grunde ist das wie damals Clippy, diese bescheuerte Büroklammer, nur das das Ding diesmal nicht ganz so blöd ist.
  • Der Microsoft-App-Store wird auch viele KI-Programme zusätzlich beherbergen
  • Es gibt gleich noch einen KI-getriebenen Roboter, der wohl praktisch sofort die Arbeit aufnimmt. Wenn ich das richtig verstanden habe, soll das Ding u.a. im Sicherheitsdienst eingesetzt werden und kann in bestimmten Fällen dann von echten Menschen "übernommen" werden, wenn man z.B. einen Eindringling entdeckt. Statt also mehrere Leute in Schichten auf Streife zu schicken, fahren Roboter herum und irgendwer irgendwo übernimmt dann im Falle eines Einbruchs die Steuerung. Auch wieder Einsparmöglichkeiten für Leute, wenn da einer in der Zentrale sagen wir mal fünf mit KI-Robotern ausgestattete Firmen überwacht ...
  • OpenAI hat einen Artikel zur Kontrolle von Superintelligenzen geschrieben. Im Grunde sind das noch mal in Schriftform die Aussagen von Sam Altman vor dem Kongress zusammengefasst. Es braucht quasi so etwas wie die Atomenergiebehörde für KI-Intelligenzen etc. pp.
Link zu diesem Kommentar
Auf anderen Seiten teilen

Sebastian Niedlich
vor 5 Minuten schrieb DirkH:

Das ist falsch, Sebastian. Wenn ich mich nicht für die Entwicklung interessieren würde, würde ich diesen Thread nicht verfolgen. Ich sehe das meiste nur kritisch und bin weniger aufgeregt. Aber das hat nichts mit mangelndem Interesse zu tun. Im Gegenteil: Es ist hochinteressant, wenn ein Fachmann von Adobe ins Stottern gerät, wenn er erklären soll, wozu all die Neuerungen gut sein sollen.

Mein Punkt war nicht, dass dich das Thema nicht generell interessiert, sondern dass u.a. du dich nicht speziell für Photoshop interessierst. Dann würdest du mit anderen Augen auf die Entwicklung schauen. Vermute ich zumindest.

Und ist der Typ aus Florians Video von Adobe? Ich dachte, das war einfach nur irgendein YouTuber, der sich dazu äußert... Ich hab jetzt die Stelle, wo er stoplert auch auf Anhieb nicht gefunden. (Ich hab das Video nur kurz überflogen, weil ich den Großteil schon kannte.) Jedenfalls sollte allen Designern und Fotografen durch klar sein, was sie da für Möglichkeiten bekommen. Ich sehe jedenfalls viele Anwendungsfälle. In aller erster Linie ist es aber eine unglaubliche Zeit-, Stress-, Such- und ggf. auch Geldersparnis.

Link zu diesem Kommentar
Auf anderen Seiten teilen

Bitte melde Dich an, um einen Kommentar abzugeben

Du kannst nach der Anmeldung einen Kommentar hinterlassen



Jetzt anmelden


×
×
  • Neu erstellen...