OpenAI sagte, dass es in Betracht gezogen wird, seine Sicherheitsanforderungen anzupassen, wenn ein konkurrierendes Unternehmen ein Modell mit hohem Risiko ohne Schutz einräumt.
Openai schrieb in seinem Bereitschaftsbericht, dass ein anderes Unternehmen, wenn es ein Modell veröffentlicht, das eine Bedrohung darstellt, dasselbe nach „streng“ bestätigt, dass sich die „Risikolandschaft“ geändert hat.
Das Dokument erklärt, wie das Unternehmen katastrophale Risiken von KI -Modellen verfolgt, bewertet, prognostiziert und vor katastrophalen Risiken schützt.
„Wenn ein anderer Frontier-KI-Entwickler ein Hochrisikosystem ohne vergleichbare Schutzmaßnahmen veröffentlicht, können wir unsere Anforderungen anpassen“, schrieb Openai in einem am Dienstag veröffentlichten Blog-Beitrag.
„Wir würden jedoch zunächst streng bestätigen, dass sich die Risikolandschaft tatsächlich geändert hat, öffentlich anerkennt, dass wir eine Anpassung vornehmen, beurteilen, dass die Anpassung das Gesamtrisiko eines schweren Schadens nicht erheblich erhöht, und die Schutzmaßnahmen auf einem Niveau weiterhin schützen.“
Vor der Veröffentlichung eines Modells an die breite Öffentlichkeit bewertet OpenAI, ob es schwere Schäden verursachen kann, indem es plausible, messbare, neue, schwere und unbestreitbare Risiken identifiziert und Schutz gegen sie bauen. Anschließend klassifiziert es diese Risiken als niedrig, mittel, hoch oder kritisch.
Einige der Risiken, die das Unternehmen bereits verfolgt, sind die Fähigkeiten seiner Modelle in den Bereichen Biologie, Chemie, Cybersicherheit und deren Selbstverbesserung.
Das Unternehmen sagte, es bewertet auch neue Risiken, z.
„Überzeugungsrisiken“, z. B. wie Chatgpt für politische Kampagnen oder Lobbyarbeit verwendet wird Modellspezifikationdas Dokument, das das Verhalten von Chatgpt bestimmt.
„Leise reduzieren Sicherheitsverpflichtungen“
Steven Adler, ein ehemaliger OpenAI -Forscher, sagte über X Dass die Aktualisierungen des Bereitschaftsberichts des Unternehmens zeigen, dass es „stillschweigend seine Sicherheitsverpflichtungen verringert“.
In seinem Posten wies er auf eine Verpflichtung im Dezember 2023 des Unternehmens hin, „fein abgestimmte Versionen“ ihrer KI-Modelle zu testen, stellte jedoch fest, dass OpenAI nun nur auf Testmodelle verändert wird, deren trainierte Parameter oder „Gewichte“ veröffentlicht werden.
„Die Menschen können sich völlig nicht einig sein, ob Tests, die mit Funkuned -Modellen eingesetzt werden, und für OpenAI besser, um eine Verpflichtung zu entfernen, als sie zu behalten und einfach nicht zu folgen“, sagte er.
„Aber in beiden Fällen möchte ich, dass Openai klarer ist, wenn ich dieses frühere Engagement zurückgezogen habe.“
Die Nachricht kommt, nachdem Openai diese Woche eine neue Familie von AI-Modellen namens GPT-4,1 veröffentlicht hat, Berichten zufolge ohne a Systemkarte oder Sicherheitsbericht. Euronews als nächstes hat Openai nach dem Sicherheitsbericht gefragt, aber zum Zeitpunkt der Veröffentlichung keine Antwort erhalten.
Die Nachricht kommt, nachdem 12 ehemalige OpenAI -Mitarbeiter a eingereicht haben knapp In der vergangenen Woche brachte Elon Musks Fall gegen OpenAI, was behauptet, dass eine Verlagerung zu einer gewinnorientierten Firma dazu führen könnte, dass Ecken die Sicherheit gesenkt werden.