Die nächste KI-Partnerschaft von Microsoft möchte, dass KI den Menschen keinen Schaden zufügt
Vor einer Woche kündigte Microsoft auf der Microsoft Inspire 2023 Llama 2 an , seine KI-Partnerschaft mit Meta. Llama 2 ist ein Open-Source-Modell für große Sprachen, mit dem Sie Ihre eigene KI erstellen und trainieren können. Gerüchten zufolge soll dieser LLM auch der erste Anhaltspunkt für die Erreichung von AGI sein , was letztendlich eines der zentralen Ziele der KI ist.
Nun, in einer Woche nach der Ankündigung ist viel passiert. Es gibt auch Gerüchte, dass OpenAI, das Unternehmen hinter ChatGPT, sein eigenes Open-Source-LLM mit dem Codenamen G3PO veröffentlicht. Es gibt noch keinen Veröffentlichungstermin dafür, aber es wird 2023 oder 2024 erscheinen.
Und es scheint, dass Microsoft sich mit Anthropic, Google und Open AI für das Frontier Model Forum zusammengetan hat. Laut der Pressemitteilung handelt es sich bei der Partnerschaft um einen Branchenverband, der sich darauf konzentriert, die sichere und verantwortungsvolle Entwicklung von Grenz-KI-Modellen sicherzustellen .
Heute geben Anthropic, Google, Microsoft und OpenAI die Gründung des Frontier Model Forums bekannt, einer neuen Branchenorganisation, die sich auf die Gewährleistung einer sicheren und verantwortungsvollen Entwicklung von Frontier-KI-Modellen konzentriert. Das Frontier Model Forum wird auf das technische und betriebliche Fachwissen seiner Mitgliedsunternehmen zurückgreifen, um dem gesamten KI-Ökosystem zu helfen, beispielsweise durch die Weiterentwicklung technischer Bewertungen und Benchmarks sowie die Entwicklung einer öffentlichen Lösungsbibliothek zur Unterstützung von Best Practices und Standards der Branche.
Frontier Model Forum
Grundsätzlich möchte das Frontier Model Forum KIs bauen, die für den Menschen kein Risiko darstellen. Wenn Sie sich erinnern, hat einer der Partner, Anthropic, gerade Claude 2 AI veröffentlicht , und das Modell ist für die Art und Weise bekannt, wie es sicher mit Menschen interagiert. Wir werden also viele KIs haben, die der KI von Claude 2 ähneln und wahrscheinlich sogar noch besser sind. In jedem Fall sind es hervorragende Neuigkeiten für diese Branche.
Was wird das Frontier Model Forum zum Thema KI tun?
Die Partnerschaft hat eine Reihe von Kernzielen festgelegt und wird danach arbeiten. Sie sind:
- Förderung der KI-Sicherheitsforschung, um die verantwortungsvolle Entwicklung von Grenzmodellen zu fördern, Risiken zu minimieren und unabhängige, standardisierte Bewertungen von Fähigkeiten und Sicherheit zu ermöglichen.
- Ermittlung bewährter Verfahren für die verantwortungsvolle Entwicklung und Bereitstellung von Grenzmodellen, um der Öffentlichkeit zu helfen, die Natur, Fähigkeiten, Einschränkungen und Auswirkungen der Technologie zu verstehen.
- Zusammenarbeit mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft und Unternehmen, um Wissen über Vertrauen und Sicherheitsrisiken auszutauschen.
- Unterstützung der Bemühungen zur Entwicklung von Anwendungen, die zur Bewältigung der größten gesellschaftlichen Herausforderungen beitragen können , wie z. B. Eindämmung und Anpassung an den Klimawandel, Früherkennung und Prävention von Krebs sowie die Bekämpfung von Cyber-Bedrohungen.
Die Partnerschaft ist auch offen für die Zusammenarbeit mit Organisationen
Wenn Sie eine Organisation sind, die Frontier-Modell-KI entwickelt, können Sie sich als Mitglied des Frontier Model Forums anmelden und mit ihm zusammenarbeiten.
Um der Partnerschaft beizutreten, müssen Sie als Organisation die folgenden Kriterien erfüllen:
- Sie entwickeln und implementieren bereits Grenzmodelle (wie vom Forum definiert).
- Die Organisation ist in der Lage, ein starkes Engagement für die Sicherheit von Grenzmodellen zu demonstrieren, auch durch technische und institutionelle Ansätze.
- Als Organisation sind Sie bereit, einen Beitrag zur Weiterentwicklung der Bemühungen des Forums zu leisten, unter anderem durch die Teilnahme an gemeinsamen Initiativen und die Unterstützung der Entwicklung und Funktionsweise der Initiative.
Dies wird das Forum tun, wenn es um KI geht
Das Frontier Model Forum möchte einen sicheren und verantwortungsvollen KI-Entwicklungsprozess unterstützen und wird sich im Jahr 2023 auf drei Schlüsselbereiche konzentrieren:
- Ermittlung bewährter Verfahren: Förderung des Wissensaustauschs und bewährter Verfahren mit Schwerpunkt auf Sicherheitsstandards und Sicherheitspraktiken, um ein breites Spektrum potenzieller Risiken zu mindern.
- Förderung der KI-Sicherheitsforschung: Unterstützen Sie das KI-Sicherheitsökosystem, indem Sie die wichtigsten offenen Forschungsfragen zur KI-Sicherheit identifizieren. Das Forum wird die Forschung koordinieren, um diese Bemühungen in Bereichen wie gegnerische Robustheit, mechanistische Interpretierbarkeit, skalierbare Aufsicht, unabhängiger Forschungszugang, aufkommendes Verhalten und Anomalieerkennung voranzutreiben. Zunächst wird ein starker Fokus auf der Entwicklung und Weitergabe einer öffentlichen Bibliothek technischer Bewertungen und Benchmarks für Grenz-KI-Modelle liegen.
- Erleichterung des Informationsaustauschs zwischen Unternehmen und Regierungen: Einrichtung vertrauenswürdiger, sicherer Mechanismen für den Informationsaustausch zwischen Unternehmen, Regierungen und relevanten Interessengruppen in Bezug auf KI-Sicherheit und -Risiken. Das Forum wird Best Practices für verantwortungsvolle Offenlegung aus Bereichen wie der Cybersicherheit verfolgen.
Im Laufe des Jahres 2023 wird das Frontier Model-Forum daran arbeiten, ein Gremium zusammenzustellen, dann eine Strategie zu entwickeln und Prioritäten festzulegen. Die Organisation ist jedoch bereits auf der Suche nach einer Zusammenarbeit mit möglichst vielen privaten oder öffentlichen Institutionen. Dazu gehören auch Zivilgesellschaften und Regierungen sowie andere Institutionen, die sich für KI interessieren.
Was denken Sie über diese neue Partnerschaft? Sind Sie an einer Mitarbeit interessiert? Oder sind Sie neugierig auf bahnbrechende KI-Modelle? Lassen Sie es uns im Kommentarbereich unten wissen.
Schreibe einen Kommentar