Microsoft legt de nadruk op verantwoorde AI-principes… na het ontslaan van het Ethical AI-team

Microsoft legt de nadruk op verantwoorde AI-principes… na het ontslaan van het Ethical AI-team

Microsoft is duidelijk all-in op initiatieven op het gebied van kunstmatige intelligentie (AI), waarbij het bedrijf tonnen geld en moeite investeert in OpenAI’s GPT , Bing Chat , GitHub Copilot en al zijn aankomende AI-integraties met Microsoft 365-producten . Ondanks deze explosieve groei in consumentgerichte AI-producten, heeft het bedrijf onlangs een ethisch team ontslagen dat ervoor moest zorgen dat verantwoorde AI-producten hun weg naar klanten vonden. Nu, in een ironische draai, heeft Microsoft zijn principes voor verantwoorde AI benadrukt in een blogpost .

Microsoft heeft in feite een reeks Responsible AI-principes die bepalen hoe AI-producten moeten worden gebouwd. De fundamenten zijn onder meer het waarborgen van eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en verantwoording. Het bedrijf merkt op dat:

Het implementeren van een Responsible AI-strategie is een uitdaging waar veel organisaties mee worstelen. Als gevolg hiervan heeft Microsoft de Responsible AI-praktijken gestandaardiseerd en beschikbaar gemaakt voor andere bedrijven of machine learning-professionals om te gebruiken bij het ontwerpen, bouwen, testen of implementeren van hun AI-systemen. Klanten of ontwikkelaars kunnen bijvoorbeeld gebruikmaken van het verantwoorde AI-effectbeoordelingssjabloon om het beoogde gebruik van de AI-systemen te helpen identificeren; gegevensintegriteit, eventuele nadelige gevolgen voor mensen of organisaties; en hoe het de doelstellingen van elk van de zes kernprincipes van verantwoordelijke AI aanpakt: eerlijkheid, inclusiviteit, veiligheid en betrouwbaarheid, verantwoordelijkheid en transparantie. Bovendien bevordert dit een praktijk voor AI-ontwikkelaars om verantwoording af te leggen en transparantie te kunnen bieden aan eindgebruikers over wat het AI-systeem doet; hoe het moet worden gebruikt; de beperkingen/beperkingen en bekende problemen. Dit helpt machine learning-teams hun ontwikkelingslevenscyclusbenadering te evalueren om te valideren dat ze geen factoren over het hoofd zien die ervoor kunnen zorgen dat hun AI-oplossing zich niet gedraagt ​​zoals bedoeld.

Hoewel Microsoft zegt dat het governance-teams heeft die ervoor zorgen dat zijn eigen AI-producten deze principes ook volgen, gaf recent nieuws uit Redmond aan dat het bedrijf zijn hele Ethics and Society-team heeft ontslagen . Dit team is naar verluidt opgericht om ervoor te zorgen dat de Responsible AI-principes van Microsoft nauw verbonden zijn met het productontwerp. Op dat moment beweerde Microsoft echter dat het nog steeds een actieve Office of Responsible AI-afdeling onderhoudt die regels en principes opstelt om zijn AI-initiatieven te sturen en blijft investeren in het gebied.

Het bedrijf zei ook niet duidelijk waarom het team werd ontslagen, maar een voormalige werknemer zei:

Mensen keken naar de principes die uit het kantoor van verantwoordelijke AI kwamen en zeiden: “Ik weet niet hoe dit van toepassing is”. Het was onze taak om ze te laten zien en om regels te creëren in gebieden waar die er niet waren.

Hoe dan ook, Microsoft heeft benadrukt dat het investeert in tools en producten die ervoor zorgen dat de principes van verantwoorde AI worden gevolgd. Een opmerkelijk voorbeeld is het Responsible AI-dashboard dat in 2021 werd gelanceerd . Natuurlijk zal alleen de tijd leren of deze initiatieven voldoende zijn om de mogelijke schadelijke effecten van AI-producten te beteugelen . Onlangs hebben algemeen bekende tech-persoonlijkheden zoals Steve Wozniak, Evan Sharp en Elon Musk een verzoekschrift ingediend bij AI-labs om de ontwikkeling van producten voor ten minste zes maanden te onderbreken en er niet onvoorbereid aan te beginnen.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *