Benötigen wir bald keine Autoren mehr?
Kann man eine künstliche Intelligenz (Kinder)Bücher schreiben und illustrieren lassen?
So wie es aussieht, ist das in naher Zukunft sehr gut möglich. Man gibt der KI Rahmenbedingungen vor und der Rechner setzt diese künstlerisch wertvoll um. Zukunftsmusik? Nein, wenn man sich den aktuellen Test vom Software Entwickler Tristrum Tuttle aus Pensilvania so durchliest, ist man schon beeindruckt.(Hier kannst du den Beitrag lesen >>>The Day I Became Friends with a Robot <<<)
Tristrum hat eine Software namens GPT-3 quasi beauftragt, eine Geschichte zu schreiben. Die Aufforderung: „Schreibe den Anfang einer kurzen, fiktiven Geschichte über ein Kind, das Angst vor künstlicher Intelligenz hat, sich dann aber mit einem Roboter anfreundet“.
GPT-3 bedeutet Generative Pre-trained Transformer 3 und ist ein autoregressives Sprachmodell, das Deep Learning verwendet, um menschenähnlichen Text zu erzeugen. Diese Software wurde von der amerikanischen Non-Profit-Organisation OpenAI hergestellt und kann solche Grundgerüste in komplexe Geschichten umwandeln. Das Krasse daran ist, dass die generierten Texte so gut verfasst werden, dass Leser sie nicht mehr von Texten unterscheiden können, die von Menschen verfasst wurden.
Die Software ist bisher der größte Natural Language Processing Transformer (NLP), der akkurat und effektiv menschliche Denk- und Argumentationsmuster reproduzieren kann. Gefüttert mit vielen Texten, lernt die neurale Struktur die Umsetzung und kann diese im neuen Kontext reproduzieren. Dabei kann das zugrundeliegende Modell aktuell 175 Milliarden Parameter zurückgreifen. Klingt viel, ist es auch. Denn das Microsoft-Modell hat gerade mal 17 Milliarden am Start.
Wer jetzt weiter daran zweifelt, ob diese Technik eine Zukunft hat, dem kann ich verraten, dass die Organisation Open AI 2015 von Elon Musk und dem Programmierer Sam Altma gegründet wurde. Und Musk ganz sicher starkes Interesse an einem Erfolg u. a. für sein humanes Roboter-Projekt hat. Ganz nebenbei wurde auch der Zugriff auf GPT-3 kostenpflichtig und eingeschränkt. Damit entwickelt sich das ursprünglich gemeinnützige Unternehmen zu einer kommerziell arbeitenden Firma.
Tristum ist einer der glücklichen Entwickler, der scheinbar Zugriff zu GPT-3 hat und uns zusätzlich noch mit der Umsetzung von und mit DALL-E 2, die passenden Illustrationen zum Text liefert.
DALL-E 2 wiederum erstellt Bilder aus Text und nutzt dafür auch ein neuronales Netzwerk. Das Open AI Projekt kann Bilder aus Textbeschriftungen für eine breite Palette von Konzepten erstellt, die in natürlicher Sprache ausgedrückt werden können.
"Ein Roboter, der einfach mitten auf der Straße steht, digitale Kunst" (siehe Titelbild ©Tristrum Tuttle/DALL-E2, "Ein Kind ist überrascht, einen Roboter auf der Straße stehen zu sehen, digitale Kunst", "Ein Kind und ein Roboter machen Hausaufgaben, digitale Kunst".
Den Output kann man auf folgender Seite bewundern und ich finde es beeindruckend und creepy zugleich. Keine Frage, die Geschichte ist noch verhältnismäßig simpel gestrickt, würde aber einem Kinderbuch gerecht.
DALL-E2 soll im Sommer als Beta der breiten Masse zugänglich sein und auch Google arbeitet gerade an Imagen.
Wobei Googles Antwort auf Open AIs DALL-E2 nur als wissenschaftliche Arbeit vorliegt, obwohl es laut Googles Entwicklern DALL-E 2 in Präzision und Qualität überlegen ist. Der Nachteil und so sieht es Google sicher richtig, kann dieses Projekt, schnell zu stereotypischen Umsetzungen neigen - das wirft natürlich ethische Fragen auf. Daher ist mit einer Veröffentlichung Googles, für die breite Masse sicher vorerst noch nicht zu rechnen.
OpenAI rollt zurzeit die KI aktuell an c.a.1000 Tester/Monat aus.
Das Zwischenfazit nach drei Millionen generierten Bildern sieht bisher ganz ordentlich aus, da nur ein Bruchteil der generierten Motive gegen die Inhaltsrichtlinien von OpenAI verstoßen.
Künstliche Intelligenz ist zweifellos eines der interessantesten und umstrittensten Themen unserer Zeit. Während die KI viele potenzielle Vorteile bietet, gibt es auch eine Reihe von ethischen Bedenken, die angesprochen werden müssen. Da neuronale Netze zunehmend in der Lage sind, Geschichten und Illustrationen zu erstellen, ist es wichtig, dass wir die Auswirkungen dieser Technologie bedenken, bevor sie zu weit verbreitet wird.
... I had never talked to a robot before. We talked for a while and I found out that its name was R0b0t. I asked it why it was just standing in the street and it said that it was waiting for its human friend. I told it that I didn’t have any friends that were robots, but that I would be its friend. R0b0t said that it would like that. ...
Tristrum hat eine Software namens GPT-3 quasi beauftragt, eine Geschichte zu schreiben. Die Aufforderung: „Schreibe den Anfang einer kurzen, fiktiven Geschichte über ein Kind, das Angst vor künstlicher Intelligenz hat, sich dann aber mit einem Roboter anfreundet“.
GPT-3 bedeutet Generative Pre-trained Transformer 3 und ist ein autoregressives Sprachmodell, das Deep Learning verwendet, um menschenähnlichen Text zu erzeugen. Diese Software wurde von der amerikanischen Non-Profit-Organisation OpenAI hergestellt und kann solche Grundgerüste in komplexe Geschichten umwandeln. Das Krasse daran ist, dass die generierten Texte so gut verfasst werden, dass Leser sie nicht mehr von Texten unterscheiden können, die von Menschen verfasst wurden.
Die Software ist bisher der größte Natural Language Processing Transformer (NLP), der akkurat und effektiv menschliche Denk- und Argumentationsmuster reproduzieren kann. Gefüttert mit vielen Texten, lernt die neurale Struktur die Umsetzung und kann diese im neuen Kontext reproduzieren. Dabei kann das zugrundeliegende Modell aktuell 175 Milliarden Parameter zurückgreifen. Klingt viel, ist es auch. Denn das Microsoft-Modell hat gerade mal 17 Milliarden am Start.
Wer jetzt weiter daran zweifelt, ob diese Technik eine Zukunft hat, dem kann ich verraten, dass die Organisation Open AI 2015 von Elon Musk und dem Programmierer Sam Altma gegründet wurde. Und Musk ganz sicher starkes Interesse an einem Erfolg u. a. für sein humanes Roboter-Projekt hat. Ganz nebenbei wurde auch der Zugriff auf GPT-3 kostenpflichtig und eingeschränkt. Damit entwickelt sich das ursprünglich gemeinnützige Unternehmen zu einer kommerziell arbeitenden Firma.
Tristum ist einer der glücklichen Entwickler, der scheinbar Zugriff zu GPT-3 hat und uns zusätzlich noch mit der Umsetzung von und mit DALL-E 2, die passenden Illustrationen zum Text liefert.
DALL-E 2 wiederum erstellt Bilder aus Text und nutzt dafür auch ein neuronales Netzwerk. Das Open AI Projekt kann Bilder aus Textbeschriftungen für eine breite Palette von Konzepten erstellt, die in natürlicher Sprache ausgedrückt werden können.
Im Fall der Illustrationen von Tristrum, war die Anforderung folgendermaßen:
"Ein Roboter, der einfach mitten auf der Straße steht, digitale Kunst" (siehe Titelbild ©Tristrum Tuttle/DALL-E2, "Ein Kind ist überrascht, einen Roboter auf der Straße stehen zu sehen, digitale Kunst", "Ein Kind und ein Roboter machen Hausaufgaben, digitale Kunst".
Den Output kann man auf folgender Seite bewundern und ich finde es beeindruckend und creepy zugleich. Keine Frage, die Geschichte ist noch verhältnismäßig simpel gestrickt, würde aber einem Kinderbuch gerecht.
Von Imagen generierte Bilder passend zu Texteingaben | Bild: Google AI |
DALL-E2 soll im Sommer als Beta der breiten Masse zugänglich sein und auch Google arbeitet gerade an Imagen.
Wobei Googles Antwort auf Open AIs DALL-E2 nur als wissenschaftliche Arbeit vorliegt, obwohl es laut Googles Entwicklern DALL-E 2 in Präzision und Qualität überlegen ist. Der Nachteil und so sieht es Google sicher richtig, kann dieses Projekt, schnell zu stereotypischen Umsetzungen neigen - das wirft natürlich ethische Fragen auf. Daher ist mit einer Veröffentlichung Googles, für die breite Masse sicher vorerst noch nicht zu rechnen.
The potential risks of misuse raise concerns regarding responsible open-sourcing of code and demos. At this time we have decided not to release code or a public demo. In future work we will explore a framework for responsible externalization that balances the value of external auditing with the risks of unrestricted open-access.
Google Research, Brain Team
OpenAI rollt zurzeit die KI aktuell an c.a.1000 Tester/Monat aus.
Das Zwischenfazit nach drei Millionen generierten Bildern sieht bisher ganz ordentlich aus, da nur ein Bruchteil der generierten Motive gegen die Inhaltsrichtlinien von OpenAI verstoßen.
Aber da liegt halt noch der Hase im Pfeffer, begrabe.
Kann sich die KI selbst kontrollieren?
Wie kann man ethnische, soziale, politische Korrektheit generieren?
Wo könnte die KI für welche Zwecke missbraucht werden?
Diese Thematik ist nicht unwichtig, vor allem wenn man zum Ziel hat, diese Plattform weiter zu monetarisieren.
Spannend, was uns da in der „nahen“ Zukunft erwarten wird.
Ich schließe nun mit dem von mir über ein neurales Netzwerk, also per KI, generierten Statement ab:
Künstliche Intelligenz ist zweifellos eines der interessantesten und umstrittensten Themen unserer Zeit. Während die KI viele potenzielle Vorteile bietet, gibt es auch eine Reihe von ethischen Bedenken, die angesprochen werden müssen. Da neuronale Netze zunehmend in der Lage sind, Geschichten und Illustrationen zu erstellen, ist es wichtig, dass wir die Auswirkungen dieser Technologie bedenken, bevor sie zu weit verbreitet wird.