Künstliche Intelligenz

Neues ChatGPT führt Unterhaltungen - und singt

Ein hilf­rei­cher Sprach­assis­tent, mit dem man sich wie mit einem Menschen unter­halten kann, blieb bisher Science Fiction. Doch nun kommt ChatGPT solchen Fähig­keiten näher.
Von dpa /

Der popu­läre Chatbot ChatGPT kann jetzt eine Unter­hal­tung mit Menschen führen und deren Emotionen erkennen. Mit der natür­lichen Stimme und der kurzen Reak­tions­zeit erin­nert das neue KI-Modell GPT-4o an Sprach­assis­tenten aus Holly­wood-Filmen. Die Entwick­ler­firma OpenAI wird es auch Gratis-Nutzern zur Verfü­gung stellen. Wie gut die Soft­ware Deutsch spre­chen kann, blieb nach der Präsen­tation aller­dings offen.

Mit Nutzern spre­chen konnte ChatGPT im Prinzip schon vorher - aber mit Pausen zur Verar­bei­tung der Daten. Jetzt zeigte OpenAI, wie die Soft­ware den Tonfall von aufge­regt bis mitfüh­lend vari­ieren kann - und auch flie­ßend zwischen Englisch und Italie­nisch über­setzt. ChatGPT wird damit zu einem mäch­tigen Konkur­renten für die Sprach­assis­tenten der Tech-Schwer­gewichte wie Amazons Alexa und Apples Siri, die im Vergleich dazu sehr schlicht wirken. Zuletzt gab es Medi­enbe­richte, Apple verhan­dele mit OpenAI über eine Inte­gra­tion von Tech­nologie der Firma in seine Soft­ware.

Chatbot verar­beitet Infos von einer Kamera

OpenAI steckt hinter ChatGPT OpenAI steckt hinter ChatGPT
Logo: OpenAI
Weitere Neue­rung: Gleich­zeitig mit gespro­chenen Befehlen kann ChatGPT auch Infor­mationen von einer Smart­phone-Kamera verar­beiten. In einem Live­stream demons­trierte OpenAI unter anderem, wie das neue Modell dadurch helfen kann, eine Mathe-Glei­chung zu lösen. ChatGPT gab per Stimme Ratschläge für den Rechenweg, ohne das Ergebnis zu verraten. Ein Mitar­beiter von OpenAI schrieb dafür die Glei­chung auf einem Blatt Papier und rich­tete die Smart­phone-Kamera darauf. Fragen an ChatGPT stellte er münd­lich - und die Soft­ware folgte per Kamera seinem Fort­schritt. Einziger Patzer: Der Chatbot behaup­tete erst, er sehe die Aufgabe, noch bevor er die Glei­chung aufschrieb. "Oops, ich war zu aufge­regt", entschul­digte sich ChatGPT.

Auch bat ein OpenAI-Mitar­beiter den Chatbot, seine Laune an dem Gesichts­aus­druck zu erkennen. Schwer machte er es ChatGPT mit einem breiten Grinsen aller­dings nicht. Das gilt auch für andere Live-Demons­tra­tionen am Montag: Sie funk­tio­nierten weit­gehend reibungslos, aber man weiß nicht, wie gut die Soft­ware unter realen Alltags-Umständen agiert. Alle Inter­aktionen wurden mit dem Weck-Satz "Hey, ChatGPT" einge­leitet - ähnlich wie man es von heutigen Sprach­assis­tenten kennt.

In einer weiteren Demo erfand ChatGPT eine Gute-Nacht-Geschichte und las sie vor. Dabei konnte man die Soft­ware unter­bre­chen und bitten, mehr Dramatik in die Stimme zu bringen oder wie ein Roboter zu spre­chen. Den letzten Satz sang ChatGPT auf Wunsch sogar vor.

"Wie KI aus Kino­filmen"

OpenAI-Chef Sam Altman schrieb nach der Präsen­tation, es sei die beste Art einen Computer zu bedienen, die er je erlebt habe. "Es fühlt sich an wie die KI aus Kino­filmen. Und es über­rascht mit immer noch ein wenig, dass es real ist." Altman und andere OpenAI verwiesen zuvor schon auf den rund ein Jahr­zehnt alten Film "Her", in dem sich der von Joaquin Phoenix gespielte Prot­ago­nist in eine KI-Assis­tenz­soft­ware verliebt. Die weib­liche Stimme von ChatGPT in der Präsen­tation erin­nerte tatsäch­lich an den Film.

Zugleich warnte die IT-Sicher­heits­expertin Rachel Tobac umge­hend, dass zum Beispiel Funk­tionen wie die auto­mati­sche Über­set­zung für Betrugs-Anrufe genutzt werden können, die zuvor an Sprach­bar­rieren schei­terten.

Abo-Kunden von OpenAI werden mehr Leis­tung in dem Modell bekommen

Zugleich machte OpenAI die Inter­aktionen für kommer­zielle Nutzer güns­tiger. Man werde jede Menge Dinge finden, für die man Geld verlangen könne, schrieb Altman dazu. Und das werde OpenAI helfen, kostenlos hoffent­lich Milli­arden Menschen zu bedienen. Nach bishe­rigen Angaben kommt ChatGPT auf rund 100 Millionen Nutzer. Es dürfte einige Wochen dauern, bis das neue Modell breit verfügbar ist. Wenige Stunden nach der Präsen­tation meldete OpenAI eine Störung bei dem Modell, die jedoch schnell wieder behoben wurde.

Der Zeit­punkt der Präsen­tation ist inter­essant: Am Dienstag hält Google seine jähr­liche Entwick­ler­kon­ferenz ab, bei der auch Ankün­digungen zu neuen Funk­tionen mit Künst­licher Intel­ligenz erwartet werden. Google zeigte bereits vor einigen Monaten, wie seine KI-Soft­ware Gemini gespro­chene und visu­elle Infor­mationen verar­beiten kann.

OpenAI-Rivale Anthropic kommt nach Europa

Kurz vor der Konfe­renz Google I/O verkün­dete auch der OpenAI-Rivale Anthropic den Europa-Start seines KI-Assis­tenten Claude. Tests hätten gezeigt, dass Claude sehr gut unter anderem auf Deutsch, Fran­zösisch und Italie­nisch funk­tio­niere, sagte Anthropic-Mitgründer Jack Clark der Deut­schen Presse-Agentur. Ähnlich wie ChatGPT kann Claude mit Hilfe Künst­licher Intel­ligenz unter anderem Sätze auf dem Niveau eines Menschen formu­lieren und den Inhalt von Texten zusam­men­fassen. In Europa werden die Web-Version, die iPhone-App und eine Vari­ante für Unter­nehmen verfügbar sein.

Anthropic brachte im März die aktu­elle Gene­ration Claude 3 heraus, die in einigen tech­nischen Tests die Leis­tung des GPT-4-Modells des ChatGPT-Entwick­lers OpenAI über­traf. Anthropic verweist darauf, dass Claude auch lange Texte zusam­men­fassen und Fragen dazu beant­worten kann. Damit könne die Soft­ware beson­ders nütz­lich unter anderem für Rechts­experten sowie in der Medizin und Finanz­branche sein, betonte Mitgründer Jared Kaplan. Die Firma sieht bislang keine Daten­spei­che­rung in Europa vor, sei aber offen dafür, wenn Kunden sich das wünschen sollten. Zugleich seien Kunden­daten stets verschlüs­selt und damit nur für sie zugäng­lich.

"Hallu­zina­tionen" redu­zieren

Anthropic sei auch erfolg­reich damit gewesen, soge­nannte "Hallu­zina­tionen" zu redu­zieren, bei denen die Soft­ware falsche Angaben macht, sagte Kaplan. Die "Hallu­zina­tionen" sind ein grund­sätz­liches Problem von KI-Programmen, die mit ihrer Funk­tions­weise zusam­men­hängen. Die Soft­ware wird mit riesigen Mengen an Infor­mationen ange­lernt. Beim Formu­lieren von Texten entscheidet sie Wort für Wort, wie ein Satz wahr­schein­lich weiter­gehen soll. Dabei können völlig falsche Angaben heraus­kommen, selbst wenn die KI-Modelle nur mit korrekten Infor­mationen gefüt­tert wurden. Anthropic versucht bei Claude, solche Fehler durch den Abgleich mit Fakten zu mini­mieren. Auf ähnliche Weise werden die formu­lierten Sätze auch mit Grund­satz-Regeln abge­gli­chen, um Belei­digungen oder Diskri­minie­rung zu verhin­dern.

In einer weiteren Meldung lesen Sie: Auspro­biert: One UI 6.1 auf dem Samsung Galaxy S23 Ultra.

Mehr zum Thema Künstliche Intelligenz