Microsoft betont verantwortungsbewusste KI-Prinzipien … nach der Entlassung des Ethical AI-Teams
Microsoft setzt eindeutig auf Initiativen zur künstlichen Intelligenz (KI), wobei das Unternehmen Tonnen von Geld und Mühe in GPT von OpenAI , Bing Chat , GitHub Copilot und alle seine bevorstehenden KI-Integrationen mit Microsoft 365-Produkten investiert . Trotz dieses explosiven Wachstums bei verbraucherorientierten KI-Produkten hat das Unternehmen kürzlich ein Ethikteam entlassen, das sicherstellen sollte, dass verantwortungsbewusste KI-Produkte ihren Weg zu den Kunden finden. Jetzt hat Microsoft ironischerweise in einem Blogbeitrag seine Prinzipien für verantwortungsbewusste KI betont .
Microsoft hat im Grunde eine Reihe von verantwortungsbewussten KI-Prinzipien , die regeln, wie KI-Produkte entwickelt werden sollten. Zu den Grundlagen gehören die Gewährleistung von Fairness, Zuverlässigkeit und Sicherheit, Datenschutz und Sicherheit, Inklusivität, Transparenz und Rechenschaftspflicht. Das Unternehmen stellt fest, dass:
Die Implementierung einer verantwortungsbewussten KI-Strategie ist eine Herausforderung, mit der viele Unternehmen zu kämpfen haben. Infolgedessen hat Microsoft die Responsible AI-Praktiken standardisiert und sie anderen Unternehmen oder Fachleuten für maschinelles Lernen zur Verfügung gestellt, damit sie sie beim Entwerfen, Erstellen, Testen oder Bereitstellen ihrer KI-Systeme übernehmen können. Beispielsweise können Kunden oder Entwickler die verantwortungsbewusste KI-Folgenabschätzungsvorlage nutzen, um die beabsichtigte Verwendung der KI-Systeme zu identifizieren; Datenintegrität, nachteilige Auswirkungen auf Personen oder Organisationen; und wie es die Ziele jedes der sechs Kernprinzipien der verantwortungsvollen KI anspricht: Fairness, Inklusivität, Sicherheit und Zuverlässigkeit, Rechenschaftspflicht und Transparenz. Darüber hinaus fördert dies eine Praxis für KI-Entwickler, Verantwortung zu übernehmen und den Endbenutzern Transparenz darüber zu bieten, was das KI-System tut; wie es verwendet werden soll; seine Einschränkungen/Einschränkungen und bekannte Probleme. Dies hilft Teams für maschinelles Lernen, ihren Entwicklungslebenszyklusansatz zu bewerten, um zu validieren, dass sie keine Faktoren übersehen, die dazu führen könnten, dass sich ihre KI-Lösung nicht wie beabsichtigt verhält.
Obwohl Microsoft sagt, dass es Governance-Teams hat, die sicherstellen, dass seine eigenen KI-Produkte diese Prinzipien ebenfalls befolgen, deuten die jüngsten Nachrichten aus Redmond darauf hin, dass das Unternehmen sein gesamtes Team für Ethik und Gesellschaft entlassen hat . Dieses Team wurde Berichten zufolge zusammengestellt, um sicherzustellen, dass die verantwortungsbewussten KI-Prinzipien von Microsoft eng mit dem Produktdesign verknüpft sind. Zu diesem Zeitpunkt behauptete Microsoft jedoch, dass es immer noch eine aktive Abteilung des Office of Responsible AI unterhält, die Regeln und Prinzipien zur Steuerung seiner KI-Initiativen erstellt und weiterhin Investitionen in diesem Bereich tätigt.
Das Unternehmen hat auch nicht klar gesagt, warum das Team entlassen wurde, aber ein ehemaliger Mitarbeiter wurde mit den Worten zitiert:
Die Leute würden sich die Prinzipien ansehen, die aus dem Büro der verantwortlichen KI kommen, und sagen: „Ich weiß nicht, wie das zutrifft“. Unsere Aufgabe war es, sie aufzuzeigen und Regeln zu schaffen, wo es keine gab.
Unabhängig davon hat Microsoft betont, dass es in Tools und Produkte investiert, die sicherstellen, dass die Grundsätze der verantwortungsvollen KI befolgt werden. Ein bemerkenswertes Beispiel ist das bereits 2021 eingeführte Responsible AI Dashboard . Natürlich wird nur die Zeit zeigen, ob diese Initiativen ausreichen, um die potenziell schädlichen Auswirkungen von KI-Produkten einzudämmen . Kürzlich forderten insgesamt bemerkenswerte Tech-Persönlichkeiten wie Steve Wozniak, Evan Sharp und Elon Musk KI-Labore auf, die Entwicklung von Produkten für mindestens sechs Monate zu unterbrechen und nicht unvorbereitet hineinzustürzen.
Schreibe einen Kommentar