Die Ergebnisse sollen helfen, politische Empfehlungen auszuarbeiten, wie NTIA-Chef Alan Davidson dem «Wall Street Journal» von Dienstag sagte.
Die KI-Programme seien schon in ihrem frühen Entwicklungsstadium beeindruckend, betonte Davidson. «Wir wissen, dass wir einige Leitplanken setzen müssen, damit sie verantwortungsvoll genutzt werden.» Im Gespräch ist unter anderem eine Zertifizierung für Software, bevor sie verfügbar gemacht wird.
Der Text-Automat ChatGPT, Googles Konkurrenz-Software Bard sowie Programme, die Bilder auf Grundlage von Text-Beschreibungen erzeugen können, sorgen gerade für viel Aufsehen. Zugleich gibt es Sorgen, dass ihre Fähigkeiten etwa für die Produktion und Verbreitung von Falschinformationen genutzt werden. Solche Bedenken wurden zuletzt zum Beispiel durch ein künstlich generiertes Foto des Papstes sowie einer per KI erzeugten Bilderserie von einer angeblichen Verhaftung des Ex-Präsidenten Donald Trump verstärkt.
ChatGPT formuliert die Texte, indem sie Wort um Wort die wahrscheinliche Fortsetzung eines Satzes einschätzt. Eine Folge des Verfahrens ist aktuell, dass sie neben korrekten Angaben auch völlig falsche Informationen erfindet - für den Nutzer aber kein Unterschied erkennbar ist.
Die US-Regierung befasst sich schon seit einiger Zeit mit einer möglichen Regulierung von Software mit künstlicher Intelligenz. So beriet US-Präsident Joe Biden Anfang des Monats mit Experten über Chancen und Risiken solcher Programme. Auf die Journalistenfrage, ob KI aus seiner Sicht gefährlich sei, sagte er danach, das wisse man noch nicht. «Sie könnte es sehr wohl sein.»
(SDA)