Ceux qui dirigent la révolution de l'IA réclament également des réglementations, établissant des comparaisons avec les pandémies et la guerre nucléaire.
** Préparez-vous : l'intelligence artificielle pourrait conduire à l'extinction de la race humaine. **
Mardi, des centaines de leaders et de chercheurs de l'industrie de l'IA, y compris des dirigeants de Microsoft, Google et OpenAI, ont émis un avertissement qui donne à réfléchir. Ils affirment que la technologie d'intelligence artificielle qu'ils conçoivent pourrait un jour constituer une menace réelle et actuelle pour l'existence humaine. En plus des horreurs des pandémies et de la guerre nucléaire, ils considèrent l'IA comme un risque pour la société à un degré similaire.
Dans une lettre publiée par le Center for AI Safety, des experts en intelligence artificielle ont proposé cette déclaration succincte : "L'atténuation du risque d'extinction de l'IA doit être comparée à d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. Ensemble en tant que priorité mondiale."
C'est ça, c'est ce qu'ils disent.
Source : Centre pour la sécurité de l'IA
La déclaration décrit l'intelligence artificielle comme une menace imminente, semblable à une catastrophe nucléaire ou à une pandémie mondiale. Mais les signataires, ces sorciers de l'industrie technologique, n'ont pas réussi à étendre leurs avertissements inquiétants.
Comment exactement ce scénario apocalyptique est-il censé se dérouler? Quand devrions-nous marquer nos calendriers pour la montée de nos seigneurs robots ? Pourquoi une invention de l'innovation humaine telle que l'intelligence artificielle trahirait-elle son créateur ? Le silence de ces architectes de l'IA était retentissant, et ils n'ont donné aucune réponse.
En fait, ces leaders de l'industrie ne fournissent pas plus d'informations qu'un chatbot avec des réponses prédéfinies. Dans le monde des menaces mondiales, l'intelligence artificielle semble avoir sauté la file d'attente, battant le changement climatique, les conflits géopolitiques et même l'invasion extraterrestre des recherches par mots-clés Google.
Google recherche l'intelligence artificielle par rapport à d'autres problèmes mondiaux tels que les guerres, les invasions extraterrestres et le changement climatique. Image : Google
Fait intéressant, les entreprises ont tendance à plaider en faveur d'une réglementation lorsqu'elle est dans leur intérêt. Cela peut être considéré comme leur façon de dire "nous voulons faire partie de l'élaboration de ces réglementations", un peu comme un renard dans le poulailler implorant de nouvelles règles.
Il convient également de noter que le PDG d'OpenAI, Sam Altman, a fait pression pour une réglementation américaine. Pourtant, il a menacé de quitter l'Europe si les politiciens du continent continuaient d'essayer de réglementer l'IA. "Nous essaierons de nous conformer", a déclaré Altman lors d'une réunion d'experts à l'University College de Londres. "Si nous pouvons nous conformer, nous le ferons. Si nous ne le pouvons pas, nous cesserons nos activités."
Pour être juste, il a changé de ton quelques jours plus tard et a déclaré qu'OpenAI n'avait pas l'intention de quitter l'Europe. Bien sûr, cela est venu après qu'il a eu l'occasion de discuter de la question avec les régulateurs au cours d'une "semaine très productive".
** L'IA est risquée, mais est-ce un si gros risque ? **
Les experts n'ont pas ignoré les méfaits potentiels de l'intelligence artificielle. Une précédente lettre ouverte signée par 31 810 défenseurs appelait à un moratoire sur la formation de puissants modèles d'IA, dont Elon Musk, Steve Wozniak, Yuval Harari et Andrew Yang.
"Ces protocoles devraient garantir sans aucun doute que les systèmes qui s'y conforment sont sûrs", indique la lettre, précisant que "cela n'implique pas un moratoire général sur le développement de l'IA de modèles de boîte noire avec des capacités émergentes, seulement que la course dangereuse à de retour dans la plus grande course imprévisible."
Le problème potentiel de l'IA Foom (dans lequel l'IA est capable d'améliorer ses propres systèmes, augmentant ses capacités au-delà de l'intelligence humaine) fait l'objet de discussions depuis des années. Cependant, le rythme rapide des changements d'aujourd'hui, associé à une forte couverture médiatique, a placé ce débat sous les projecteurs mondiaux.
Source : Revue du journalisme de Columbia
Cela a suscité des opinions divergentes sur la façon dont l'IA affectera l'avenir de l'interaction sociale.
Certains envisagent une ère utopique où l'intelligence artificielle interagit avec les humains et où le progrès technologique règne en maître. D'autres soutiennent que les humains s'adapteront à l'IA, créant de nouveaux emplois autour de la technologie, similaires à la croissance de l'emploi qui a suivi l'invention de l'automobile. D'autres, cependant, insistent sur le fait qu'il y a de fortes chances que l'IA mûrisse et devienne incontrôlable, posant une réelle menace pour l'humanité.
Jusque-là, les affaires comme d'habitude dans le monde de l'IA. Gardez un œil sur votre ChatGPT, votre Bard ou votre Siri, ils pourraient juste avoir besoin d'une mise à jour logicielle pour régner sur le monde. Mais pour l'instant, il semble que la plus grande menace de l'humanité ne soit pas nos propres inventions mais notre don illimité pour l'exagération.
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Les fabricants d'IA avertissent que leur technologie est "en danger d'extinction"
Ceux qui dirigent la révolution de l'IA réclament également des réglementations, établissant des comparaisons avec les pandémies et la guerre nucléaire.
** Préparez-vous : l'intelligence artificielle pourrait conduire à l'extinction de la race humaine. **
Mardi, des centaines de leaders et de chercheurs de l'industrie de l'IA, y compris des dirigeants de Microsoft, Google et OpenAI, ont émis un avertissement qui donne à réfléchir. Ils affirment que la technologie d'intelligence artificielle qu'ils conçoivent pourrait un jour constituer une menace réelle et actuelle pour l'existence humaine. En plus des horreurs des pandémies et de la guerre nucléaire, ils considèrent l'IA comme un risque pour la société à un degré similaire.
Dans une lettre publiée par le Center for AI Safety, des experts en intelligence artificielle ont proposé cette déclaration succincte : "L'atténuation du risque d'extinction de l'IA doit être comparée à d'autres risques à l'échelle de la société tels que les pandémies et la guerre nucléaire. Ensemble en tant que priorité mondiale."
C'est ça, c'est ce qu'ils disent.
Source : Centre pour la sécurité de l'IA
La déclaration décrit l'intelligence artificielle comme une menace imminente, semblable à une catastrophe nucléaire ou à une pandémie mondiale. Mais les signataires, ces sorciers de l'industrie technologique, n'ont pas réussi à étendre leurs avertissements inquiétants.
Comment exactement ce scénario apocalyptique est-il censé se dérouler? Quand devrions-nous marquer nos calendriers pour la montée de nos seigneurs robots ? Pourquoi une invention de l'innovation humaine telle que l'intelligence artificielle trahirait-elle son créateur ? Le silence de ces architectes de l'IA était retentissant, et ils n'ont donné aucune réponse.
En fait, ces leaders de l'industrie ne fournissent pas plus d'informations qu'un chatbot avec des réponses prédéfinies. Dans le monde des menaces mondiales, l'intelligence artificielle semble avoir sauté la file d'attente, battant le changement climatique, les conflits géopolitiques et même l'invasion extraterrestre des recherches par mots-clés Google.
Google recherche l'intelligence artificielle par rapport à d'autres problèmes mondiaux tels que les guerres, les invasions extraterrestres et le changement climatique. Image : Google
Fait intéressant, les entreprises ont tendance à plaider en faveur d'une réglementation lorsqu'elle est dans leur intérêt. Cela peut être considéré comme leur façon de dire "nous voulons faire partie de l'élaboration de ces réglementations", un peu comme un renard dans le poulailler implorant de nouvelles règles.
Il convient également de noter que le PDG d'OpenAI, Sam Altman, a fait pression pour une réglementation américaine. Pourtant, il a menacé de quitter l'Europe si les politiciens du continent continuaient d'essayer de réglementer l'IA. "Nous essaierons de nous conformer", a déclaré Altman lors d'une réunion d'experts à l'University College de Londres. "Si nous pouvons nous conformer, nous le ferons. Si nous ne le pouvons pas, nous cesserons nos activités."
Pour être juste, il a changé de ton quelques jours plus tard et a déclaré qu'OpenAI n'avait pas l'intention de quitter l'Europe. Bien sûr, cela est venu après qu'il a eu l'occasion de discuter de la question avec les régulateurs au cours d'une "semaine très productive".
** L'IA est risquée, mais est-ce un si gros risque ? **
Les experts n'ont pas ignoré les méfaits potentiels de l'intelligence artificielle. Une précédente lettre ouverte signée par 31 810 défenseurs appelait à un moratoire sur la formation de puissants modèles d'IA, dont Elon Musk, Steve Wozniak, Yuval Harari et Andrew Yang.
"Ces protocoles devraient garantir sans aucun doute que les systèmes qui s'y conforment sont sûrs", indique la lettre, précisant que "cela n'implique pas un moratoire général sur le développement de l'IA de modèles de boîte noire avec des capacités émergentes, seulement que la course dangereuse à de retour dans la plus grande course imprévisible."
Le problème potentiel de l'IA Foom (dans lequel l'IA est capable d'améliorer ses propres systèmes, augmentant ses capacités au-delà de l'intelligence humaine) fait l'objet de discussions depuis des années. Cependant, le rythme rapide des changements d'aujourd'hui, associé à une forte couverture médiatique, a placé ce débat sous les projecteurs mondiaux.
Source : Revue du journalisme de Columbia
Cela a suscité des opinions divergentes sur la façon dont l'IA affectera l'avenir de l'interaction sociale.
Certains envisagent une ère utopique où l'intelligence artificielle interagit avec les humains et où le progrès technologique règne en maître. D'autres soutiennent que les humains s'adapteront à l'IA, créant de nouveaux emplois autour de la technologie, similaires à la croissance de l'emploi qui a suivi l'invention de l'automobile. D'autres, cependant, insistent sur le fait qu'il y a de fortes chances que l'IA mûrisse et devienne incontrôlable, posant une réelle menace pour l'humanité.
Jusque-là, les affaires comme d'habitude dans le monde de l'IA. Gardez un œil sur votre ChatGPT, votre Bard ou votre Siri, ils pourraient juste avoir besoin d'une mise à jour logicielle pour régner sur le monde. Mais pour l'instant, il semble que la plus grande menace de l'humanité ne soit pas nos propres inventions mais notre don illimité pour l'exagération.