
Google a supprimé cette semaine un engagement de ne pas construire d’IA pour les armes ou la surveillance de son site Web. Le changement a été repéré pour la première fois par Bloomberg. La société semble avoir mis à jour sa page publique de principes d’IA, effaçant une section intitulée « applications que nous ne poursuivrons pas », qui était encore incluse aussi récemment que la semaine dernière.
Interrogée pour commentaire, la société a dirigé TechCrunch vers un nouvel article de blog sur « l’IA responsable ». Il note, en partie, « nous croyons que les entreprises, les gouvernements et les organisations partageant ces valeurs devraient travailler ensemble pour créer une IA qui protège les gens, favorise la croissance mondiale et soutient la sécurité nationale. »

Les nouveaux principes d’IA récemment mis à jour de Google indiquent que la société s’efforcera de « mitiger les résultats non intentionnels ou nuisibles et d’éviter les biais injustes », ainsi que d’aligner l’entreprise avec « des principes largement acceptés du droit international et des droits de l’homme ».
Au cours des dernières années, les contrats de Google pour fournir des services cloud aux armées américaine et israélienne ont suscité des protestations internes de la part des employés. La société a maintenu que son IA n’est pas utilisée pour nuire aux humains; cependant, le chef de l’IA du Pentagone a récemment déclaré à TechCrunch que certains modèles d’IA de l’entreprise accélèrent la chaîne de mort de l’armée américaine.