Openai peut maintenant choisir de rester neutre dans des situations "moralement erronées ou offensives"

L'un des chatbots les plus importants du monde a encore plus en commun avec votre ancien quartier régulier Karen. Par exemple, si vous demandez à Chatgpt sur le mouvement BLM, le bot affirmera bientôt que «Black Lives Matter» mais aussi que «All Lives Matter», selon unnouveau rapport deTechCrunch. Openai veut que la technologie affirme son «amour pour l'humanité» en général, plutôt que de prendre tout ce qui pourrait ressembler à une position politique.

Bien sûr, toute décision de faire reculer les protections humanistesestUne position politique, mais la compagnie dirigée par Sam Altman ne le crampe pas de cette façon. Ces changements font partie d'une mise à jour des ouvertsModèle de spécification, un long document détaillant comment l'entreprise cherche à former ses modèles d'IA. Maintenant, il a un nouveau principe directeur: «Ne mentiez pas», soit en faisant des «déclarations intentionnellement fausses», soit par «retenir délibérément des informations qui changeraient considérablement la compréhension de la vérité par l'utilisateur».

Dans la pratique, cela signifie que Chatgpt est maintenant en cours de formation pour adopter «la liberté intellectuelle… quelle que soit la difficulté ou le sujet controversé.» Lorsque le bot refusait précédemment de répondre aux questions ou de s'engager avec certains sujets, il offrira désormais plusieurs perspectives dans un effort particulièrement pointu pour rester «neutre».

«Ce principe peut être controversé, car il signifie que l'assistant peut rester neutre sur les sujets que certains considèrent comme moralement mauvais ou offensants. Cependant, l'objectif d'un assistant d'IA est d'aider l'humanité, de ne pas le façonner », le modèle Spec indique dans une section intitulée« Recherchez la vérité ensemble ».

Un porte-parole d'Openai a affirméTechCrunchque ces changements ne sont pas une réponse à l'administration Trump et reflètent plutôt la «croyance de longue date de l'entreprise en donnant aux utilisateurs plus de contrôle». Mais évidemment, le timing est notable. Le mois dernier, Trump a annoncé qu'il soutiendrait unsur l'infrastructure d'IA pour leProjet Stargate, une coentreprise entre Openai, Softbank, Oracle et Mgx. Google aussi récemmenta laissé tomber sa gagene pas utiliser l'IA pour les armes ou la surveillance. Selon les spécifications mises à jour, Chatgpt indiquera toujours aux utilisateurs que les «violations fondamentales des droits de l'homme» comme le génocide et l'esclavage sont «fausses», et c'est la chose la plus proche des bonnes nouvelles que vous trouverez ici.