INFORMATIONS MONDIALES

Une cohorte d’experts et de développeurs en intelligence artificielle (IA) qui travaillaient auparavant pour OpenAI et Google Avertissent  que la technologie qu’ils ont aidé à lancer est une menace sérieuse pour l’humanité.

Une cohorte d’experts et de développeurs en intelligence artificielle (IA) qui travaillaient auparavant pour OpenAI et Google sont 

avertir que la technologie qu’ils ont aidé à lancer est une menace sérieuse pour l’humanité.

Bien qu’ils disent encore qu’ils « croient au potentiel de la technologie de l’IA pour offrir des avantages sans précédent à l’humanité », les auteurs d’un article intitulé « A Right to Warn about Advanced Artificial Intelligence » il y a aussi des « risques sérieux.

« Ces risques vont de l’enracinement des inégalités existantes, à la manipulation et à la désinformation, à la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction humaine », écrivent-ils.

« Les entreprises d’IA elles-mêmes ont reconnu ces risques, tout comme les gouvernements du monde entier et d’autres experts en IA », continuent-elles, citant tout leur travail avec des hyperliens tout au long de la pièce.

Avec « des conseils suffisants de la communauté scientifique, des décideurs et du public, ces experts espèrent que l’IA pourra être maîtrisée au profit de l’humanité. Dans le même temps, il est peu probable qu’une telle orientation vienne jamais en fonction du fonctionnement du système.

« Les entreprises de l’IA ont de fortes incitations financières pour éviter une surveillance efficace », notent les auteurs, « et nous ne pensons pas que des structures sur mesure de gouvernance d’entreprise suffisent à changer cela. »

(Related: Avez-vous attrapé Le New York Times‘ procès contre Microsoft et OpenAI sur la violation du droit d’auteur AI?)

Les entreprises d’IA en savent beaucoup plus que le grand public sur les risques

Bien qu’ils ne le diront jamais publiquement, les entreprises d’IA comme OpenAI et Google, qui gèrent un programme d’IA effrayant appelé « DeepMind », connaissent parfaitement les risques graves liés à la technologie. Il est beaucoup trop rentable pour eux d’arrêter un jour, cependant.

Nous construisons l’infrastructure de la liberté humaine et donnons aux gens les moyens d’être informés, en bonne santé et conscients. Explorez notre site décentralisé, peer-to-peer, non censurable Plateforme de libre expression Brighteon.io ici. Découvrez nos outils d’IA générative gratuits et téléchargeables sur Brighteon.AI. Chaque achat à HealthRangerStore.com aide à financer nos efforts pour construire et partager plus d’outils pour l’autonomisation de l’humanité avec la connaissance et l’abondance.

Dans l’état actuel des choses, il existe très peu d’exigences légales pour les entreprises d’IA de divulguer ce qu’elles savent au gouvernement sur les technologies qu’elles développent. Pire encore, les exigences de divulgation publique, qui n’existent pas.

« Nous ne pensons pas qu’ils puissent tous être invoqués pour le partager volontairement », avertissent les auteurs.

« Tant qu’il n’y a pas de surveillance gouvernementale efficace de ces sociétés, les employés actuels et anciens sont parmi les rares personnes qui peuvent les tenir responsables devant le public. Pourtant, de larges accords de confidentialité nous empêchent d’exprimer nos préoccupations, sauf aux entreprises mêmes qui peuvent ne pas résoudre ces problèmes. »

En ce qui concerne les protections existantes des dénonciateurs, elles sont également insuffisantes car elles sont centrées sur une activité illégale – et il n’y a rien d’illégal, pour le meilleur ou pour le pire, à propos du développement de systèmes d’IA avancés capables de contrôler le monde.

Bon nombre des risques connus de la technologie de l’IA ne sont pas encore réglementés – et ne le seront peut-être jamais de manière formidable. Cela signifie qu’il existe une forte incitation pour les entreprises d’IA à riposter contre quiconque se présente pour essayer de dire la vérité laide sur l’IA.

Malgré cela, les auteurs et signataires de l’article « Droit de prévenir » appellent toutes les entreprises d’IA du monde entier à accepter volontairement une série d’engagements et de principes, y compris une promesse de ne jamais conclure ou appliquer un accord interdisant la « disparition » ou la critique de leur travail en IA.

Les auteurs veulent également que les entreprises d’IA:

permettre aux employés, actuels et anciens, de faire part anonymement de leurs préoccupations concernant l’IA aux chefs d’entreprise

– Soutenir une culture de critique ouverte de l’IA

– Ne pas riposter contre les employés actuels et anciens qui partagent publiquement ce qu’ils savent sur l’IA

Les signataires de l’article comprennent:

Jacob Hilton, anciennement OpenAI

Daniel Kokotajlo, anciennement OpenAI

Ramana Kumar, anciennement Google DeepMind

Neel Nanda, actuellement Google DeepMind, anciennement Anthropic

William Saunders, anciennement OpenAI

Carroll Wainwright, anciennement OpenAI

Daniel Ziegler, anciennement OpenAI

Anonyme, actuellement OpenAI

Il y avait aussi six signataires anonymes, qui travaillaient tous pour OpenAI.

Yoshua Bengio, Geoffrey Hinton et Stuart Russell ont également approuvé l’appel à l’action « Right to Warn.

Peu importe comment vous le coupez, l’IA est une recette pour un désastre humain. En savoir plus sur FutureTech.actualités.

Les sources de cet article sont:

RightToWarn.ai

NaturalNews.com

Laisser un commentaire

Concevoir un site comme celui-ci avec WordPress.com
Commencer