logistic ready

Fachportal für Intralogistik

Das ChatGPT-KI-Programm wird die Fähigkeit haben, zu sprechen und zu sehen

Das ChatGPT-KI-Programm wird die Fähigkeit haben, zu sprechen und zu sehen

Die Schnittstelle, die die generative KI populär gemacht hat – die in der Lage ist, Texte, Bilder und andere Inhalte auf Abruf zu produzieren – wird bald in der Lage sein, Anfragen mit Bildern zu verarbeiten und sie mündlich mit ihren Benutzern zu besprechen.

In einer Erklärung nennt OpenAi das Beispiel eines Benutzers, der ein Denkmal fotografiert und dann „mit ChatGPT plaudert“ über die Geschichte des Gebäudes oder der die Software in seinem Kühlschrank zeigt, damit diese ein Rezept vorschlagen kann.

Weitere Beispiele für mögliche Einsatzmöglichkeiten sind nach Angaben des Unternehmens die Unterstützung von Kindern bei Schulaufgaben, beispielsweise durch das Versenden eines Bildes einer Matheaufgabe, oder die Bitte an einen „Chatbot“, den Kindern vorher eine Geschichte zu erzählen, damit sie einschlafen können.

Diese neuen Tools werden in den nächsten zwei Wochen für Abonnenten von ChatGPT Plus, der kostenpflichtigen Version des Chatbots, und Organisationen, die Kunden des Dienstes sind, entwickelt.

Das Unternehmen kündigte diese Funktionen im März an, als es GPT-4 vorstellte, die neueste Version seines Sprachmodells, das chatGPT unterstützt.

GPT-4 ist multimedial, das heißt, es kann sowohl Informationen als auch Text oder Computercodes verarbeiten.

Der Erfolg von ChatGPT seit Ende 2022 hat einen Wettlauf in Richtung generativer KI durch Technologiekonzerne wie Google und Microsoft ausgelöst.

Doch die rasante Entwicklung dieser noch immer sehr schlecht organisierten Programme gibt Anlass zu großer Sorge, zumal sie dazu neigen, zu „halluzinieren“, also Antworten zu erfinden.

OpenAI räumte in seiner Stellungnahme ein, dass „visionäre Modelle neue Herausforderungen und Halluzinationen mit sich bringen, weil sich die Menschen bei den getroffenen Entscheidungen auf die Bildinterpretation der Software in Bereichen mit schwerwiegenden Konsequenzen verlassen können“.

Siehe auch  Das Weiße Haus möchte, dass der Mond eine eigene Zeitzone hat

Das Unternehmen bestätigte, dass es das Modell zu Themen wie Extremismus und wissenschaftlichen Erkenntnissen „getestet“ habe, fügte jedoch hinzu, dass es sich bei der Verbesserung auf reale Anwendungen und Benutzerfeedback stütze.

Andererseits schränkte es die Möglichkeiten von ChatGPT zur „Analyse von Personen“ ein, da die Schnittstelle „nicht immer genau ist und diese Systeme die Vertraulichkeit von Personen respektieren müssen“.