un scientifique tire la sonnette d’alarme

paultensor
Lecture en 5 min
À propos des liens affiliés : Sur ce site, certains liens sont affiliés. Cela signifie que si vous cliquez et effectuez un achat, je peux recevoir une petite commission, sans frais supplémentaires pour vous. Je m’engage à recommander uniquement des produits et services que j’ai testés ou qui reflètent des standards de qualité élevés. Ces contributions me permettent de maintenir ce site et de continuer à partager du contenu qui vous est utile. Merci pour votre confiance et votre soutien !

L’intelligence artificielle pourrait-elle sonner le glas de l’humanité ? Geoffrey Hinton, lauréat du prix Nobel de physique 2024, estime que le risque est bien réel. Selon lui, la probabilité d’une telle catastrophe dans les trois prochaines décennies serait de 10 à 20 %. Une perspective alarmante qui soulève de nombreuses questions sur notre avenir face à ces entités plus intelligentes que nous.

L’intelligence artificielle (IA) connaît des avancées fulgurantes, dépassant les attentes des experts les plus chevronnés. Cette technologie révolutionnaire suscite autant d’espoirs que d’inquiétudes. Alors que certains y voient une opportunité sans précédent pour l’humanité, d’autres, comme le célèbre scientifique Geoffrey Hinton, tirent la sonnettesonnette d’alarme. Le risque que l’IA détruise notre espèceespèce serait bien plus élevé qu’on ne le pensait auparavant.

Un scénario catastrophe de plus en plus plausible

Geoffrey Hinton, souvent qualifié de « parrain de l’IA », a récemment fait part de ses inquiétudes grandissantes concernant le développement rapide de l’intelligence artificielle. Lors d’une interview accordée à BBC Radio 4, le scientifique anglo-canadien a revu à la hausse ses estimations quant à la probabilité que l’IA détruise l’humanité dans les trois prochaines décennies.

Selon lui, ce risque serait désormais compris entre 10 et 20 %, contre 10 % dans ses précédentes évaluations. Cette augmentation significative témoigne de l’accélération spectaculaire des progrès en matièrematière d’IA, dépassant largement les prévisions initiales des experts du domaine.

Le professeur émérite de l’Université de Toronto souligne que nous nous trouvons face à une situation inédite : « Nous n’avons jamais eu à gérer des entités plus intelligentes que nous ». Cette réalité pose un défi majeur à notre espèce, habituée à dominer son environnement grâce à ses capacités cognitives supérieures.

L’humanité, future subordonnée de l’intelligence artificielle ?

Pour illustrer ce renversement de situation, Geoffrey Hinton compare notre position face à l’IA à celle d’enfants en bas âge : « Imaginez-vous face à un enfant de trois ans. Nous serons les enfants de trois ans ». Cette analogieanalogie frappante met en lumièrelumière le fossé qui pourrait se creuser entre nos capacités et celles des intelligences artificielles avancées.

Le scientifique s’interroge sur notre aptitude à contrôler des entités plus intelligentes que nous : « Combien d’exemples connaissez-vous où une chose moins intelligente contrôle une chose plus intelligente ? ». Il évoque la relation mère-enfant comme unique exemple, soulignant que l’évolution a longuement œuvré pour permettre ce type d’interaction.

Cette réflexion soulève des questions vitales sur notre capacité à maîtriser le développement de l’IA et à en garder le contrôle à long terme. La perspective de devenir subordonnés à des intelligences artificielles supérieures représente un changement de paradigme sans précédent pour l’humanité.

Urgence d’une régulation gouvernementale

Face à ces risques potentiels, Geoffrey Hinton appelle à une action urgente des gouvernements mondiaux pour réguler le développement de l’IA. Selon lui, le marché seul n’est pas en mesure d’assurer un développement sûr de cette technologie, malgré les mesures mises en place par certaines entreprises comme OpenAI.

Le scientifique met en garde contre une confiance excessive dans l’autorégulation du secteur : « Mon inquiétude est que la main invisible ne nous maintiendra pas en sécurité. Laisser faire uniquement la recherche du profit par les grandes entreprises ne suffira pas à garantir un développement sûr ». Il insiste sur la nécessité d’une intervention gouvernementale pour contraindre les acteurs majeurs du domaine à investir davantage dans la recherche sur la sécurité.

Cette prise de position tranche avec celle d’autres experts, comme Yann LeCun, scientifique en chef de l’IA chez Meta. Ce dernier minimise la menace sur l’humanité et estime au contraire que la technologie « pourrait en réalité sauver l’humanité de l’extinction ». Ce débat illustre la complexité des enjeux liés au développement de l’IA et la diversité des points de vue au sein même de la communauté scientifique.

L’avenir de l’humanité face à l’intelligence artificielle reste incertain. Les prochaines décennies seront cruciales pour déterminer si nous parviendrons à maîtriser cette technologie révolutionnaire ou si elle deviendra une menace existentielle pour notre espèce.

Partager cet article