OpenAI präsentiert ein Sicherheitskonzept, das die Bewertung ihrer KI-Technologie in vier Kategorien unterteilt, um Bedenken bezüglich potenzieller Gefahren zu adressieren.
Die Entwicklung von Künstlicher Intelligenz (KI) schreitet rasant voran und fasziniert die Öffentlichkeit mit ihren beeindruckenden Fähigkeiten. Doch gleichzeitig wachsen auch die Bedenken über potenzielle Gefahren dieser Technologie.
Als Reaktion auf diese Besorgnis hat der renommierte ChatGPT-Hersteller OpenAI nun ein Sicherheitskonzept für seine fortschrittlichsten KI-Modelle vorgelegt. Dieses Konzept unterteilt die Bewertung der KI in vier Kategorien: Cybersicherheit, atomare, chemische, biologische oder radiologische Bedrohung, Überzeugungskraft und Autonomie. Jede Kategorie wird anhand spezifischer Kriterien einer von vier Risikostufen zugeordnet, von “niedrig” bis “kritisch”.
Als Beispiel für einen kritischen Grad von Autonomie wird ein KI-Modell genannt, das eigenständig KI-Forschung betreiben und so “einen unkontrollierbaren Prozess der Selbstverbesserung” auslösen könnte – eine sogenannte “Intelligenzexplosion”.
Um das Risiko einer KI einzuschätzen, sollen laut OpenAI Einstufungen sowohl vor als auch nach der Implementierung von Sicherheitsmaßnahmen erfolgen. Die Gesamteinstufung des Modells entspricht dabei der höchsten Risikostufe in einer der Kategorien.
Das Unternehmen betont, dass nur solche KI-Modelle eingesetzt werden sollen, bei denen nach der Einbindung von Sicherheitsmaßnahmen höchstens die zweithöchste Risikostufe “mittel” erreicht wird. Zudem dürfen nur Modelle weiterentwickelt werden, bei denen kein “kritisch” eingestuftes Risiko festgestellt wurde.
Um die Einhaltung dieser Richtlinien zu gewährleisten, werden verschiedene Gruppen zur Überwachung und Beratung eingesetzt. Das Board hat dabei die Befugnis, Entscheidungen der Konzernführung zu überstimmen.
OpenAI hatte bereits vor gut einem Jahr mit seiner KI-Chatbot-Software ChatGPT für Aufsehen gesorgt, die jüngsten Durchbrüche bei der generativen KI verdeutlichte. Doch trotz der Begeisterung über die Fortschritte bestehen weiterhin Besorgnisse über potenzielle Gefahren, da die KI menschenähnliche Fähigkeiten wie das Schreiben von Texten, die Auswertung von Daten und die Generierung von Bildern besitzt.
Dies wird auch von der Bevölkerung geteilt, wie eine Umfrage von Reuters/Ipsos im Mai ergab: 61 Prozent der US-Bürger glauben, dass KI die menschliche Zivilisation bedrohen könnte.
(eulerpool-AFX)