Altmans OpenAI löste mit dem Chatbot ChatGPT sowie der Software, die Bilder auf Basis von Text-Beschreibungen erzeugen kann, den aktuellen Hype um Künstliche Intelligenz maßgeblich aus. ChatGPT formuliert Texte, indem Wort für Wort die wahrscheinliche Fortsetzung eines Satzes eingeschätzt wird. Eine Folge dieses Verfahrens ist aktuell, dass die Software neben korrekten Angaben auch völlig falsche Informationen erfindet, wobei für den Nutzer ohne weitere Überprüfungen kein Unterschied erkennbar ist. Deswegen gibt es die Befürchtung, dass ihre Fähigkeiten zum Beispiel für die Produktion und Verbreitung von Falschinformationen genutzt werden könnten.
Auch Altman äußerte in der Anhörung diese Sorge. Altman schlug die Gründung einer neuen Regierungsbehörde vor, die KI-Modelle auf den Prüfstand stellen kann. Für Künstliche Intelligenz solle eine Reihe von Sicherheits-Tests vorgesehen werden – etwa, ob sie sich eigenständig weiterverbreiten könnten. Unternehmen, die nicht vorgeschriebene Standards einhalten, solle die Lizenz entzogen werden. Die KI-Systeme sollen auch von unabhängigen Experten geprüft werden können. Altman räumte ein, dass die KI-Technologie in Zukunft einige Jobs durch Automatisierung abschaffen könnte. Zugleich habe sie aber das Potenzial, viel bessere Arbeitsplätze zu schaffen.
(dpa)