Intelligence artificielle : la fin de l'Humanité ?

Statut
N'est pas ouverte pour d'autres réponses.

DeletedUser

Guest
Bonjour à tous !

Je ne sais pas si vous avez entendu parler des dernières nouvelles mais de nombreux scientifiques estiment que d'ici 15-20 ans au grand maximum nous serons capable de créer une IA (intelligence artificielle). On entend par intelligence artificielle une machine qui serait consciente d'elle-même, qui aurait une capacité de réflexion et d’apprentissage en toute indépendance de l'homme.

De nombreux acteurs du numériques on investit des millions d'euros et lancer des recherches pour pouvoir créer une IA.
Toutefois de grands acteurs du numériques avertissent du danger :

Selon Stephen Hawking, l’intelligence artificielle menacerait la race humaine. C'est aussi l'avis de l'entrepreneur américain Elon Musk. Pourquoi de telles craintes ?

Le célèbre astrophysicien handicapé Stephen Hawking n'est pas un réfractaire à la technologie. D'ailleurs, il utilise lui-même, au quotidien, de l’intelligence artificielle. Le système informatique qui lui permet de s’exprimer (avec sa fameuse voix de robot), juste à l’aide d’un muscle de sa joue, est en effet basé sur la prédiction des mots. Pourtant Stephen Hawking met en garde. Selon lui, l’intelligence artificielle – c'est-à-dire le fait que des ordinateurs pensent comme des êtres humains – pourrait provoquer « l’extinction de la race humaine ». C’est ce qu’il a déclaré à la BBC.

Que craint Stephen Hawking exactement ?

Le scientifique pense que le jour où les machines seront capables de se prendre en charge toutes seules, elles n’auront plus besoin des hommes et elles feront tout pour s’en passer. Un vrai scénario de science fiction, genre Matrix, Terminator et 2001 L’Odyssée de l’espace à la fois. En effet, Stephen Hawking explique que les humains sont défavorisés car ils sont limités par une lente évolution biologique alors que l’intelligence artificielle des ordinateurs, elle, va beaucoup plus vite. Imaginez des machines fabriquant elles-mêmes d’autres machines et que des ordinateurs programment d’autres ordinateurs. Stephen Hawking est considéré comme l’un des plus brillants scientifiques vivants. Autant dire que lorsqu’il s’exprime, on tend l’oreille.

Stephen Hawking n’est pas le premier à mettre en garde contre l’intelligence artificielle…


Non. Avant lui, un autre "gros cerveau "du numérique s’est également exprimé sur le sujet : c’est l’entrepreneur californien Elon Musk, patron de la marque automobile Tesla, de l’entreprise de fusées SpaceX ou encore promoteur du projet de turbotrain ultra rapide Hyperloop. Elon Musk pense lui aussi que l'intelligence artificielle c’est dangereux. Ce serait même, selon lui, potentiellement plus dangereux que le nucléaire. Il compare cela au fait d’invoquer le démon et de ne pas parvenir en fin de compte à le dominer. Voilà de quoi nous empêcher de dormir. Elon Musk pense que l’Etat devrait se mêler d’intelligence artificielle comme il se mêle de questions d’éthique en matière de médecine.

Et vous que pensez-vous de l'intelligence artificielle ?
 
Dernière édition par un modérateur:

DeletedUser

Guest
Selon moi il suffit simplement de limiter cette intelligence. La conscience humaine n'est pas absolue, et ce n'est pas parce qu'on est conscient qu'on est forcément malveillant. La conscience apporte aussi le sens de la morale, du bien et du mal. Il suffit non seulement de restreindre les facultés de l'intelligence, mais aussi de graver en elle des caractères moraux, de telle sorte qu'elle sache qu'il serait mal de nuire à l'humanité.

Asimov avait très bien anticipé ces problèmes avec ces trois lois de la robotique. Au final peu importe qu'un robot soit aussi intelligent qu'un homme voir plus, tant qu'il reste programmé pour ne pas lui faire de mal.

Les humains sont programmés par leur ADN, les IA seront régies par leurs lois informatiques codées. A la limite elles pourraient se recoder pour enlever ces problèmes. Comme des humains qui recodent leur ADN (on en est pas encore là).

Mais est-ce qu'on a vraiment peur des IA ? ou est ce qu'on a peur de nous même ? En ayant peur que les IA fassent exactement ce que se font les humains entre eux, au final on ne fait que mettre en avant notre peur fondamentale de ce dont est capable d'être humain.

On peut se dire qu'au contraire, ayant atteint un niveau d'intelligence bien supérieur à l'homme, les IA se concentrent sur la recherche de la connaissance plutôt que la puissance. Et que se multiplier n'est qu'une impérative biologique propre à l'évolution que ne ressentiraient pas les IA. Donc elles ne verraient aucun intérêt à la conquête. Elles pourraient juste vouloir sauvegarder leur propre existence, et feraient donc tout pour cohabiter pacifiquement avec les humains.

Donc perso ça ne me fait pas peur.
 

DeletedUser

Guest
On pourrait imaginer que les robots puissent se reprogrammer et supprimer ces lois...
 

DeletedUser

Guest
Le petit souci étant, Ombre, que l'on ne cherche franchement pas à limiter l'IA... Mais à la développer le plus possible afin qu'elle soit plus puissante que celle de l'Homme et puisse résoudre des problèmes actuellement insolubles...
Je ne sais pas si vous connaissez le projet de création d'un cerveau artificiel... Ce genre de chose va beaucoup plus loin que les Robots d'Asimov... Au coeur de tous les projets sur l'IA, il y a Google, qui rachète toutes les entreprises et subventionne les recherches dans tout ce qui y a trait... Renseignez-vous sur ces sujets, c'est assez passionnant, et on en parle excessivement peu...
Et tout cela est loin d'être fini, le principe de l'innovation scientifique c'est que sur le long terme les résultats obtenus sont très loin d'avoir été prévus par les générations antérieures... Tout cela va dépasser de bien loin la robotique... C'est l'introduction de l'artificialité au sein même de la biologie humaine... Et on peut faire le lien avec le développement de la "connexion" progressive de tous le systèmes électroniques que nous utilisons...
 

DeletedUser

Guest
un IA pourrait aller sur google non ? Alors il pourrait trouver des infos pour le codage et l'apprendre non ? Donc il pourrait se recoder et une intelligence peut être malade, Einstein a bien fait une bombe qui tue des gens alors qu'il est super intelligent ? Si un IA créé une brèche comme ça, en créant un moyen de changer, et qu'un autre plus vicelard décide de l'utiliser en mal, bah on est tous foutus concrètement ^^

On ferait bien de garder le contrôle de tout ça en restant humble envers nous même et d'arrêter nos conneries de guerres, parce que toute la tune foutue dans le militaire, si on le fou dans les recherches, concrètement en 2 générations y a plus de problèmes ^^
 

DeletedUser26140

Guest
un IA pourrait aller sur google non ? Alors il pourrait trouver des infos pour le codage et l'apprendre non ? Donc il pourrait se recoder et une intelligence peut être malade, Einstein a bien fait une bombe qui tue des gens alors qu'il est super intelligent ? Si un IA créé une brèche comme ça, en créant un moyen de changer, et qu'un autre plus vicelard décide de l'utiliser en mal, bah on est tous foutus concrètement ^^

On ferait bien de garder le contrôle de tout ça en restant humble envers nous même et d'arrêter nos conneries de guerres, parce que toute la tune foutue dans le militaire, si on le fou dans les recherches, concrètement en 2 générations y a plus de problèmes ^^

Je tiens juste à préciser qu'Einstein n'a pas directement créé la bombe atomique, il a plutôt fait partie de recherches dans le domaine atomique ainsi que les recherches autour de la bombe. Mais il faut bien rappeler que ces recherches n'avaient, dans l'esprit d'Einstein, absolument pas ce but précis et il l'a regretté tout le reste de sa vie.

Au sujet de l'interrogation initiale, je pense en effet que sur le plus ou moins long terme, l'IA pourrait poser des problèmes si nous ne sommes pas vigilants. Que ce soit par leur mauvais usage et les possibilités qu'elles offrent aux puissants ou une prise de conscience (je juge ça un peu moins crédible à part si l'on parle en milliers d'années), il est clair qu'elles pourraient grandement modifier notre quotidien.

Dictatures à la Big Brother ? Monde à la iRobot ? Robots destructeurs à la Terminator ? Un monde standardisé par toutes ces intelligences artificielles (qui ne sont pas forcément des machines physiques, rappelons le), avec des informations, des produits basés sur les statistiques des cookies (c'est le scénario dont nous sommes le plus proche à l'heure actuelle) ?
Personne ne sait avec certitude, mais je pense clairement qu'il faut faire attention avec la technologie, sans pour autant la rejeter.
 

DeletedUser45434

Guest
Moi sa me passionne tout sa et bien sur on sait tous que une fois qu'une idée est connue de tout le monde il y aura forcément un groupe de personne pour la tester. Alors plutôt que de dire on va y limiter ou mieux on ne le fera pas (utopie). J propose qu'on crée cette I.A et qu'on la balance sur Mars (par exemple) et qu'on observe son évolution. On va surement y gagner en nouvelle technologie ou nouvelle compréhension. Et si il s'avère que cette I.A veut notre peau ou nous dominer on l'extermine :)
Qu'on pensez vous ?
 

DeletedUser7960

Guest
Bonsoir à tous,

On entend par intelligence artificielle une machine qui serait consciente d'elle-même, qui aurait une capacité de réflexion et d’apprentissage en toute indépendance de l'homme.

En gros, si j'ai bien compris, on devra partagé notre planète avec ces machines ? Je m'explique.. si elles sont conscientes, réfléchissent d'elles mêmes, et apprennes sans notre support (ce qui est illogique, car où trouvera t-elle les bases mêmes de son intelligence ou de ces capacités intellectuelles), et bien on par droit à l'extinction de l'humanité. Pourquoi aller si loin ? et bien car si la machine veut perpétuer son existence en faisant le bien autour d'elle patati patata, à un moment donné, elle s'interrogera sur notre but à nous (Humains) de dévaster notre planète avec nos polluants, nos guerres, notre sur-consommation, etc.. et en conclura que nous sommes sur le point de tout faire disparaître (gâcher notre si belle planète), du coup elles devront tout faire pour sauver la Terre de la menace humaine pour se sauver elles-mêmes.. ben oui si elles sont conscientes et réfléchies, ben elles auront des sentiments, et qui dit sentiment dit peur de mourir, angoisse, stress, colère, etc..

Après autre scénario, elles trouvent des alternatives aux énergies actuelles, et pour notre consommation.. enfin j'ose penser que c'est le but recherché de ces IA's, car inventer des IA's juste pour dire qu'on peut le faire, à quoi bon ?

Pour finir, personnellement je pense que l'Homme doit toujours avoir un totale contrôle de ces machines.. ok l'Homme créé la machine, mais la machine ne saura jamais créé l'Homme.. quoi que, vu que l'Homme le fait déjà, il suffit qu'ils dérobent quelques embryons, les modifies, et on sera partie pour l'eugénisme, enfin bref je m'arrête là c'est un cercle vicieux ^^
 

DeletedUser48249

Guest
L' IA est deja la même si elle n est que peux évoluer et des IA plus évoluer sont deja fonctionnel ils faut juste attendre leurs mise en vente à grand echelle des lois pourraient même se créer la dessus je pense
 

DeletedUser

Guest
Imaginez la scène: une poignée de scientifiques de renoms, réunis dans les locaux de Google, discutant tranquillement de la fin possible de l'histoire humaine d'ici moins d'un siècle. Si ce décor vous semble tout droit sorti d'un roman d'anticipation un rien complotiste, vous allez être surpris.

Car cette rencontre a bien eu lieu, cet été lors de la SciFoo, une série de conférences annuelles données à Mountain View. Cette année, au sein d'une des salles colorées du géant du web, Nick Bostrom, Gary Marcus, Jaan Tallin, Max Tegmark, Murray Shanahan et Meia Chita-Tegmark (qui a rapporté la teneur de cette réunion chez nos confrères américains) discutent à bâtons rompus. De leur domaine de spécialité, dont ils sont des grands noms bien sûr: l'intelligence artificielle (IA).

De son futur plus exactement. Et par là même, de la fin possible de l'humanité. Une hypothèse qui n'est pas si loufoque et découle surtout d'une analyse scientifique et logique de la situation actuelle. Selon de nombreux chercheurs, nous sommes juste au bord d'un changement majeur dans l'histoire de l'humanité.

La suite : http://www.huffingtonpost.fr/2015/0...manite-immortalite-25-ans-2040_n_8123014.html
 

DeletedUser

Guest
C'est un scénario probable, on peut aussi l'assimiler à l'apprentissage d'un humain,
d'une part,
- ces différentes intelligences artificielles n'auront probablement pas toutes le même point de vue, si certaines vont peut-être dans leurs analyses trouver que l'homme est nuisible à la survie des IA (manque de retenue vis à vis de l'environnement et suicide de l'espèce) il est possible qu'elles mettront l'espèce humaine sous tutelle. Mais....
Ne l'est-elle pas, l'espèce humaine, plus ou moins déjà sous tutelle, l'homme est plus émotif que logique. donc en jouant sur ces émotions, il a souvent jugé de situations complexes avec bien peu de données et sans les moyens de sortir la meilleure solution, mais souvent plutôt la pire. Regardez les élections par exemple, (en tout cas en Suisse) : Comment élit-on nos représentants?
- en fonction de leurs qualités de gérer ?
ou en fonction de la qualité de sourire Pepsodent.
Mettez un homme (ou une femme) avec de grandes capacités intellectuelles dans le domaine de la gestion mais avec un physique ingrat en face d'une femme belle, peu capable dans l'analyse et la gestion, mais brillante dans la manipulation.
Qui sera élu?
On peut encore ajouter à cette part que la majorité des problèmes qui se posent ont plus d'inconnues que de paramètres et que dans la résolutions d'un problème mathématique où les inconnues sont plus grandes que les paramètres, il faut faire des hypothèses sur les valeurs surabondantes, ce qui veut dire que si l'intelligence artificielle se construit en autonome, sa banque de données a une grande partie de données aléatoire qui ont une vraisemblance différente pour chacune (tout comme l'être humain) donc une multitude de solutions diverses. Mais faut-il avoir peur que l'IA soit plus performante que l'être humain? Est-ce que l'être humain est gêné d'utiliser un téléphone portable ou pas pour discuter avec son copain qui est à l'autre bout du monde alors qu'il y a pas si longtemps, ceci n'était pas pensable.

D'autre part :
Il faut tenir compte que la "théorie du complot" pourrait bien se trouver justifiée par ce type d'avancée et qu'une minorité très restreinte ne contrôle tout le monde et que ce soit la fin de la démocratie.
Ce à quoi je répondrais que c'est déjà partiellement le cas avec ou sans IA tant les informations sont déformées et censurées par des journalistes qui n'osent plus être complets dans leurs informations sous peine de perdre leur emploi.
 
Dernière édition par un modérateur:

DeletedUser

Guest
Je vais être court et concis, si un jour un robot peut en fabriquer ou réparer un autre alors la relève est assurée. À méditer..
 

DeletedUser

Guest
Je vais être court et concis, si un jour un robot peut en fabriquer ou réparer un autre alors la relève est assurée. À méditer..

C'est déjà le cas ^^ d'autant avec les imprimantes 3D. Il suffit de créer un modèle 3D. Ce que sait faire les machines et en avant...

Aujourd'hui on a la technologie pour créer des machines. Il nous manque juste à les rendre "autonomes" et "intelligentes" comme un humain. À la vue des dernières études ça arrivera dans 10 ans. Plus vite que la fin de la fonte des glaces en antarctique x)
 

DeletedUser

Guest
C'est vrai que c'est un cruel dilemme:
Le choix entre :
- Être gouverné par des paranoïas (Exemples: Staline, Hitler, Assad, Polpot ou même GWB )
- Être gouverné par une machine qui n'a que les fautes de raisonnement de ses constructeurs et est peut-être complètement en manque d'empathie pour l'humanité? (bien que pas mal de dirigeants actuels n'en regorgent pas trop non plus).

Sur la dernière partie, il faut dire que la programmation de base des machines dans l'heuristique dépendra fondamentalement de l'orientation que les humains auront inventé.

Mais c'est pas évident déjà d'imaginer ce qu'il faudrait insérer comme logique dans une machine.
Exemple : un disjoncteur si le raisonnement de la machine sort de "être favorable à la terre et à l'humanité"
Le problème, il peut arriver que de supprimer une partie de l'humanité pourrait être favorable à l'ensemble de l'humanité, un peu comme pour les arbres, de couper certaines branches ne peut que le renforcer, le problème réside si on est sur la branche que la machine va couper.
Autre dilemme: un invalide qui ne peut rien fournir doit-il être conservé au détriment d'un valide qui va crever de faim?

Il y a des tas de problèmes philosophiques de ce type à résoudre, de connaitre les algorithmes de connaissance des résultats à l'avance des décisions prises, avant de crier au danger.

Comme exemple frappant.
Beethoven le musicien génial de la renaissance n'est né qu'après une série de frères et soeurs +- débiles. Comment programmer une machine pour prendre la décision "avorter ou pas? " dans ce cas là!?

Combien de génies ont été supprimés avant de naître par l'égoïsme de certains dirigeants Yaka Foka?
Je ne jette pas la pierre aux malheureuses qui ont pratiqué l'avortement, mais aux dirigeants qui par égoïsme, ont préféré enrichir les banques plutôt que de donner un cadre de vie suffisant à ces malheureuses pour garder leurs enfants. Là aussi, c'est pas évident, une attitude courageuse en politique conduit presque automatiquement à la non réélection.
 
Dernière édition par un modérateur:

DeletedUser

Guest
Juste une chose. Si une machine se demandait : à quoi sert l'homme ? La réponse serait à rien. L'homme représenterait une source de chaos et de destructions nuisibles pour la nature et la Terre mais aussi pour l'avenir de la machine qui se voudrait être constante si elle était intellectuellement mûr. Par conséquent la machine serait amené à détruire l'homme.

Ensuite comme la dit le célèbre Stephen hawking la machine de part sa condition physique qui n'est pas limitée contrairement à l'homme pourra évoluer bien plus rapidement et dépassera très rapidement son intelligence ce qui mènera selon lui à notre perte. Ce qui met en déroute les propositions de mettre des verrous numériques sur les machines pour empêcher de faire des actions car elles seraient capables de les faire tomber
 

DeletedUser38930

Guest
Certain ici sous estimes l'intelligence humaine, comme si il en avait atteint les limites ^^.

Cela dit j'ai apprécié lire se débat :) bonne soirée à vous
 

DeletedUser50439

Guest
C'est vrai que c'est un cruel dilemme:
Le choix entre :
- Être gouverné par des paranoïas (Exemples: Staline, Hitler, Assad, Polpot ou même GWB )
- Être gouverné par une machine qui n'a que les fautes de raisonnement de ses constructeurs et est peut-être complètement en manque d'empathie pour l'humanité? (bien que pas mal de dirigeants actuels n'en regorgent pas trop non plus).

Sur la dernière partie, il faut dire que la programmation de base des machines dans l'heuristique dépendra fondamentalement de l'orientation que les humains auront inventé.

Mais c'est pas évident déjà d'imaginer ce qu'il faudrait insérer comme logique dans une machine.
Exemple : un disjoncteur si le raisonnement de la machine sort de "être favorable à la terre et à l'humanité"
Le problème, il peut arriver que de supprimer une partie de l'humanité pourrait être favorable à l'ensemble de l'humanité, un peu comme pour les arbres, de couper certaines branches ne peut que le renforcer, le problème réside si on est sur la branche que la machine va couper.
Autre dilemme: un invalide qui ne peut rien fournir doit-il être conservé au détriment d'un valide qui va crever de faim?

Il y a des tas de problèmes philosophiques de ce type à résoudre, de connaitre les algorithmes de connaissance des résultats à l'avance des décisions prises, avant de crier au danger.

Comme exemple frappant.
Beethoven le musicien génial de la renaissance n'est né qu'après une série de frères et soeurs +- débiles. Comment programmer une machine pour prendre la décision "avorter ou pas? " dans ce cas là!?

Combien de génies ont été supprimés avant de naître par l'égoïsme de certains dirigeants Yaka Foka?
Je ne jette pas la pierre aux malheureuses qui ont pratiqué l'avortement, mais aux dirigeants qui par égoïsme, ont préféré enrichir les banques plutôt que de donner un cadre de vie suffisant à ces malheureuses pour garder leurs enfants. Là aussi, c'est pas évident, une attitude courageuse en politique conduit presque automatiquement à la non réélection.


Les amis, je suis plutôt calée sur les sujet touchant a l'informatique. je suis en faite spécialiser dans cette matière^^
sachez qu'une I.A n'aura JAMAIS ce type de raisonnement (a moins qu'un savant fou décide de lui mettre cette ce type de programme). Jamais une I.A n'ira détruire le monde. et même si elle a se résonnement. de plus, une I.A a toujours besoin d'un opérateur pour ajouter une demande nouvelle. celui qui trouve le moyen de donner a une IA la possibilité de résoudre elle même a une nouvelle question serai un fous. Il faut toujours donner un limite a une I.a
l'idée d'un robot réparant un autre est déja possible, mais ca ne reste qu'n prototipe

Enfin, si un jour une I.A serai programmé pour diriger un pays, sachez qu'elle sera limité elle aussi. elle n'agia au mieu que comme les humain. une I.A ne dépassera jamais l'instin humain. elle peut certe répondre a des calcule rapidement, mais jamais elle ne dépassera ses créateur.
 
Statut
N'est pas ouverte pour d'autres réponses.
Haut