Taille du texte: + -
Accueil > Echappées culturelles > Tracks

Tracks

Tracks fait le tour des sons et des cultures qui dépassent les bornes, tous les samedis à partir de 23h.

> Tracks du 22 septembre 2011 - Spécial Transhumanisme > 2068

Tracks

Tracks fait le tour des sons et des cultures qui dépassent les bornes, tous les samedis à partir de 23h.

Tracks

28/10/11

3 mai 2068 : Faut-il avoir peur de Terminator ?

SINGULARITY INSTITUTE


BREAKING NEWS 03/05/68 : Le tueur en série qui a fait 32 victimes depuis le 13 avril dernier dont on ne trouvait ni trace d'ADN, ni empreintes a enfin été identifié. Malgré la classification "top secret" du Pentagone, notre correspondant à L.A. nous a révélé son identité : il s'agit d'un droïde modèle RBVA-W12, communément appelé le Wally-Sitter.
ATTENTION : Si vous disposez d'un droïde du même modèle, fabriqué après 2067, merci d'appeler le numéro vert 011 1011 101



Quand l'homme se met à imaginer le futur, c’est souvent de travers.
Dans les années cinquante, les films de science fiction anticipent l'an 2000 et font leur beurre avec des robots humanoïdes dressés pour exterminer l'espèce humaine. Mais le problème des prédictions, c'est qu'elles font souvent un flop. En revanche, elles font de très bon scénarii pour Hollywood.

Avec son accent autrichien, le robot-tueur de Terminator incarne le pire des scénario-catastrophes : celui de la guerre des humains contre les robots qui ont accédé à la conscience. Dans le film de James Cameron sorti en 84, cette confrontation a lieu en 2029. Quelle coïncidence ! c'est selon Kurzweil l'année précise à laquelle l’intelligence artificielle va égaler l’intelligence humaine. Très vite elle devrait la dépasser, rendant le combat sans espoir pour toute vie organique !



Résister ou collaborer avec l'intelligence artificielle ? Pour les apôtres de la singularité comme Kurzweil, on a encore les moyens de se faire une place dans
ce futur qui pourrait très bien se passer de nous.

SINGULARITY INSTITUTE
À San Francisco, une association de jeunes scientifiques bénévoles croit encore à la coopération. Quels naïfs ! Parrainé par Google, proche de grandes universités comme celle d’Oxford, le Singularity Institute planche sur la meilleure façon de développer une intelligence artificielle respectueuse de l’humain.

Ces recherches mélangent données informatiques et études psychologiques. Objectif : établir une liste d’écueils à éviter et la faire circuler à toutes les entreprises qui planchent sur l'intelligence artificielle.



Michael Anissimov : Il y a un risque que l’intelligence artificielle ne soit pas du côté de l’humanité et qu'elle soit même une menace pour l’homme. C’est comme si on tombait sur un extraterrestre pour la première fois. Si on crée une nouvelle espèce intelligente, on va devoir cohabiter avec elle. Et faut vraiment être cinglé pour s'imaginer que ça se passera forcément bien. Si on était paresseux, on prendrait le cerveau d'un humain bénévole et on ferait une copie la plus détaillée possible, une copie idéale. Mais on est toujours coincé par le fait que, l'histoire l'a démontré, dès qu'il y a du pouvoir, il y a de la corruption. Et on est aussi coincé par le fait que pendant une seconde on se concentre sur les idéaux les plus nobles et la seconde suivante on est prêt à tout pour tirer un coup.



Edité le : 10-09-11
Dernière mise à jour le : 28-10-11