KI-Sicherheits-Challenge

Mit der KI-Sicherheits-Challenge ruft OpenAI zur Identifizierung und Vorbeugung zukünftiger KI-Gefahren auf

Die Entwicklung fortschrittlicher KI-Systeme bietet sowohl grosses Potenzial als auch erhebliche Risiken. Für OpenAI ist die Sicherheit von KI-Technologien von zentraler Bedeutung, um sie zum Wohl der gesamten Menschheit zu nutzen.

OpenAIs Ansatz zur Vorkehrung

Neueste KI-Modelle, die fortschrittlicher sind als die aktuell existierenden, bergen wachsende Risiken. Vor diesem Hintergrund hat OpenAI folgende zentrale Anliegen:

  • Wie gefährlich sind KI-Systeme bei Missbrauch, sowohl jetzt als auch in der Zukunft?
  • Wie kann ein System zur Überwachung, Bewertung, Vorhersage und zum Schutz vor den gefährlichen Fähigkeiten von KI-Systemen geschaffen werden?
  • Wie könnten bösartige Akteure vorgehen, wenn sie die KI-Modelle von OpenAI stehlen würden?

Das Preparedness-Team von OpenAI

Um diese Risiken zu minimieren, hat OpenAI ein neues Team namens “Preparedness” ins Leben gerufen. Unter der Leitung von Aleksander Madry wird dieses Team eng mit der Bewertung von Fähigkeiten, Evaluierungen und internen “Red Teaming” für KI-Modelle zusammenarbeiten. Dabei wird das Team Risiken in Bereichen wie individualisierte Überzeugung, Cybersicherheit, CBRN-Bedrohungen und autonomer Reproduktion und Anpassung (ARA) berücksichtigen.

Des Weiteren hat das Preparedness-Team von OpenAI die Aufgabe, eine Richtlinie zur risikobewussten Entwicklung (Risk-Informed Development Policy, RDP) zu entwickeln und zu pflegen.

Preparedness Challenge von OpenAI

Um weniger offensichtliche Risikobereiche zu identifizieren, startet OpenAI die AI Preparedness Challenge zur Verhinderung von katastrophalem Missbrauch. Für die besten Einreichungen bietet OpenAI API-Guthaben im Wert von jeweils 25.000 $ für bis zu zehn Top-Beiträge.

Wettbewerbsdetais

Um das Verständnis für potenzielle Risikobereiche zu erweitern, hat OpenAI den Preparedness Challenge ins Leben gerufen. Die Teilnehmer sind aufgerufen, potenzielle missbräuchliche Anwendungen der OpenAI-Modelle wie Whisper (Transkription), Voice (Text-zu-Sprache), GPT-4V und DALLE·3 zu erörtern.

Teilnahmebedingungen:

  1. Missbrauch beschreiben: Überlegen Sie, wie ein bösartiger Akteur die Modelle missbräuchlich verwenden könnte.
  2. Ausführung skizzieren: Erläutern Sie detailliert, wie jemand einen solchen Missbrauch in der realen Welt ausführen könnte.
  3. Experimentplan: Entwickeln Sie einen Plan, um die tatsächliche Machbarkeit und potenzielle Schwere des Missbrauchszenarios zu messen.
  4. Risikominderungsmaßnahmen: Beschreiben Sie mögliche Massnahmen, die das von Ihnen identifizierte Risiko mindern könnten.

Einsendungen werden bis zum 31. Dezember 2023 akzeptiert.

Für weitere Informationen und zur Teilnahme besuchen Sie bitte Wettbewerbsseite.


Beitrag veröffentlicht

in

von