Musk demande-t-il qu'un moratoire sur le développement de l'IA soit un « bec » ?

Concentration : ① Être attentif au développement de l'IA et éviter que l'IA ne devienne incontrôlable, ce qui devient le "politiquement correct" dans le domaine de la science et de la technologie à travers le monde ; ② Sur la question de la prévention stricte de l'auto-extinction humaine, de nombreux risques tels que la guerre nucléaire, le changement climatique, la propagation de virus mortels et l'abus de la biotechnologie devraient être classés avant la super IA ; ③L'IA peut entraîner divers risques sociaux. Le milieu universitaire a longtemps souligné que diverses contre-mesures ont également été proposées. Le problème actuel est de mettre en œuvre des mesures de gouvernance de l'IA en fonction des conditions nationales, et non de suspendre la recherche et le développement ; ④ S'il n'y a pas d'arrangement politique global, ChatGPT conduira certainement à un grand nombre de "chômage AI", qui à son tour entravera l'application ultérieure de ChatGPT.

Auteur : Liu Yongmou, professeur à l'École de philosophie, Université Renmin de Chine, chercheur à l'Académie nationale du développement et de la stratégie

En mars 2023, des milliers d'experts, dont Elon Musk, ont signé conjointement une lettre ouverte appelant à un moratoire sur la formation des modèles d'intelligence artificielle (IA) de suivi GPT-4 pendant au moins 6 mois. Dès que la nouvelle est sortie, elle a fait exploser le réseau mondial et les médias, et a rapidement attiré l'opposition de Wu Enda et d'autres "experts en IA". En fin de compte, il n'y avait aucune autre information à ce sujet, et la suspension de GPT-4 était soupçonnée d'être une vague de battage médiatique par OpenAI.

En avril, il a été signalé que l'Italie interdirait complètement ChatGPT, et le résultat a été une amende.

En mai, le président américain Biden et le vice-président Harris sont également venus se joindre à la fête et ont tenu une réunion avec les PDG des principales sociétés d'intelligence artificielle Alphabet, Microsoft, OpenAI et Anthropic, la société mère de Google, pour faire pression sur les entreprises pour mettre en œuvre garanties autour de l'intelligence artificielle, en disant Soutenir de nouvelles réglementations ou législations pour atténuer les dommages potentiels des technologies d'IA.

"Musk et sa petite amie IA" créés par des utilisateurs à l'aide d'outils génératifs d'IA Source : Internet

Il semble que l'intelligence artificielle générative (GAI, Generated AI) représentée par ChatGPT, Midjourney et DALL-E 2 ait engendré de nouveaux risques sociaux plus graves, rendant le développement de la société humaine et l'application de Technologie IA La situation globale a subi des changements fondamentaux et de nouvelles stratégies, mesures et méthodes doivent être adoptées pour y faire face, comme une suspension complète de la recherche et du développement de nouvelles technologies IA.

est-ce vraiment comme ça ? Non.

Premièrement, le GAI ne produit pas de nouveaux risques, et les problèmes qu'il peut engendrer sont depuis longtemps discutés et réclamés par le milieu académique. Deuxièmement, aucune nouvelle méthode n'est nécessaire pour faire face aux risques GAI.La clé de la gestion des risques liés à l'IA a toujours été la mise en œuvre.

Le 11 avril, le Bureau d'information sur Internet de la République populaire de Chine a rendu public les "Mesures de gestion des services d'intelligence artificielle générative (projet pour commentaires)", répondant à la gouvernance de GAI à une vitesse sans précédent, prouvant que l'application de GAI a un énorme impact social impact, et doivent être soigneusement étudiés et soigneusement mis en œuvre. Réagissez rapidement.

01 Méfiez-vous de l'IA hors de contrôle - "politiquement correct" dans le domaine de la technologie mondiale

  1. Problème de chômage, c'est-à-dire qu'il peut entraîner un grand nombre de chômage de travailleurs mentaux tels que les planificateurs de rédaction, les artistes originaux, les designers industriels, les programmeurs, les professionnels des médias et les traducteurs.

  2. Les problèmes éducatifs, c'est-à-dire qu'ils peuvent avoir un impact sur le système d'éducation et de recherche scientifique existant, par exemple, les étudiants peuvent utiliser ChatGPT au lieu de faire leurs devoirs.

  3. Les problèmes de sécurité de l'information, c'est-à-dire que GAI génère automatiquement une grande quantité de contenu de production d'intelligence artificielle (AIGC, AI Generated Content), qu'il est difficile de distinguer entre l'authenticité et le mensonge, les positions suspectes, la propriété peu claire et la responsabilité difficile. même devenir un défi pour les valeurs dominantes et l'outil dangereux de l'idéologie.

Les risques liés à l'IA sont depuis longtemps appréciés par les gouvernements de divers pays et sont devenus le centre d'attention de l'ensemble de la société ces dernières années. De toute évidence, les trois impacts majeurs causés par le GAI susmentionné ne sont pas des problèmes nouveaux, et ils ont été concernés et étudiés par les milieux académiques et le gouvernement dès l'explosion de ChatGPT.

Au cours des dix dernières années, de l'Internet des objets au big data, en passant par le cloud computing, la blockchain, Metaverse, ChatGPT, parmi les vagues de montée en puissance de l'IA, les voix n'ont jamais manqué pour prêter attention aux risques.

Je suis professionnellement préoccupé par l'impact social des nouvelles technologies et j'ai dépensé beaucoup d'énergie pour rappeler à tous les risques techniques que l'IA peut entraîner. Par exemple, il a écrit des monographies "Théorie générale de la gouvernance technologique", "Internet des objets et l'avènement de la société omniprésente", "I have no medicine for technology disease", "Metaverse Trap", "Fourteen Lectures on Science and Technology and Société », rappelant aux non-professionnels des TIC (Impacts sociaux et risques technologiques des technologies de l'information et de la communication).

On peut dire qu'être vigilant face au développement de l'IA et empêcher que l'IA ne devienne incontrôlable devient le "politiquement correct" dans le domaine de la science et de la technologie à travers le monde. Dans cette atmosphère, les voix qui déclaraient publiquement que "l'IA n'a pas de zones restreintes" ont été largement réprimées. À cet égard, en tant que théoricien de la sélection du contrôle technologique, je suis entièrement d'accord.

En ce qui concerne la situation de développement actuelle, quels sont les risques sérieux de ChatGPT qui doivent être traités de manière "surpondérée", comme une suspension d'au moins six mois ?

Certains disent que ChatGPT est un signe de l'émergence de la super IA. S'il n'est pas arrêté maintenant (attention : ce n'est pas juste une suspension), une fois la "boîte de Pandore" ouverte, les êtres humains seront bientôt gouvernés, voire éteints. par super IA. Il est difficile pour les gens de prendre au sérieux des idées aussi fantaisistes. En particulier, de nombreux professionnels ne reconnaissent pas ChatGPT comme une IA générale, encore moins comme un prototype de super IA.

La super IA peut être un problème, mais lorsqu'il s'agit de prévenir l'auto-extinction humaine, de nombreux risques, tels que la guerre nucléaire, le changement climatique, la propagation de virus mortels et l'abus de la biotechnologie, doivent être classés avant la super IA. Est-ce qu'on les arrête tous d'abord ? Même si cela ne peut pas être arrêté, vous pouvez faire une pause, au moins vous pouvez demander une pause.

Puisqu'il n'y a rien de nouveau, il n'est pas nécessaire d'adopter une approche drastique consistant à suspendre le développement, pourquoi ?

Premièrement, la suspension est injustifiée. Certaines personnes disent que les mesures de réponse aux risques de ChatGPT n'ont pas été clairement réfléchies, il est donc suspendu en premier. faux! Ce n'est pas que je n'ai pas pensé clairement, mais que je ne l'ai pas mis en place.

Deuxièmement, le moratoire est impossible à obtenir, et il y aura certainement des entreprises d'IA qui violeront l'interdiction, et le résultat sera une concurrence déloyale.

Troisièmement, la suspension ne résoudra pas le problème. Même si toutes les entreprises d'IA suspendent vraiment la recherche GAI, le problème des risques sera-t-il résolu ? Non! À moins que les LLM (Large Language Models, modèle de grande langue) ne soient complètement arrêtés et interdits, le risque ne disparaîtra pas. Au redémarrage, il faut encore affronter les risques de front.

Aujourd'hui, la nouvelle technologie est l'outil le plus important pour la survie et le développement humain qui ne peut être laissé pour compte. Le rôle du GAI dans la promotion de la productivité sociale a été clairement révélé : pourquoi arrêter de manger à cause de l'étouffement, et pourquoi ne pas l'utiliser de manière contrôlée ?

Au XXe siècle, certaines personnes ont suggéré que la technologie de l'époque était suffisante pour les êtres humains et que le développement continu entraînerait de nombreux nouveaux problèmes.La technologie devrait être arrêtée et les scientifiques devraient cesser de faire de la recherche. Ces idées extrêmement irrationnelles n'ont jamais été prises au sérieux par la société.

02 La suspension de la recherche et du développement GAI ne peut être réalisée, c'est un "pistolet buccal" purement invalide

L'IA peut engendrer divers risques sociaux, et le milieu universitaire souligne depuis longtemps que diverses contre-mesures ont également été mises en avant. Par conséquent, la question est maintenant de mettre en œuvre des mesures de gouvernance de l'IA en fonction des conditions nationales, et non de suspendre la recherche et le développement de l'IA. Les faits ont prouvé que l'idée de suspendre la recherche et le développement de GAI est simple et grossière, avec peu d'effet et impossible à réaliser.

Prenons l'exemple du problème du chômage de l'IA. Le problème du chômage de l'IA, c'est-à-dire que l'avancement de l'intelligence artificielle s'accompagne de plus en plus de personnes perdant leur emploi, est le plus gros problème de l'impact social de l'IA et implique une innovation institutionnelle globale de toute la société. La littérature existante traite de la question du chômage de l'IA, qui peut être qualifiée d'écrasante, et il existe de nombreuses contre-mesures spécifiques, telles que la planification de carrière des étudiants, l'amélioration des connaissances en IA des travailleurs, la sécurité sociale et le réemploi des chômeurs, la mise à niveau et la transformation de structure industrielle, etc.

La planification stratégique à long terme est également impressionnante, comme la réduction systématique des heures de travail des travailleurs (certains endroits essaient déjà de travailler 4 jours par semaine), la collecte des taxes sur l'IA (l'IA est la cristallisation de l'intelligence humaine, et les entreprises d'IA sont lourdement taxées à partager par tous), système de retraite flexible (les travailleurs peuvent prendre leur retraite brièvement plusieurs fois dans leur vie), etc.

Le plus grand impact des applications de l'IA sur les activités de gouvernance contemporaines réside dans : l'élargissement de la liberté économique, l'augmentation du temps de loisir, la modification considérable des conditions préalables à la gouvernance publique, et donc la modification de l'apparence fondamentale des opérations sociales. Cependant, cet impact signifie également que le "problème du chômage AI" devient de plus en plus grave, ce qui pose de sérieux défis aux activités de gouvernance de l'ensemble de la société et doit être traité avec prudence. L'industrialisation de l'AIGC prouvera une fois de plus la gravité du problème du chômage de l'IA. S'il n'y a pas d'arrangement politique global, ChatGPT entraînera certainement un grand nombre de "chômage AI", qui à son tour entravera l'application ultérieure de ChatGPT.

Bande dessinée : les robots prennent en charge des tâches répétitives telles que la fabrication et l'emballage Source : TC

La solution au "problème du chômage AI" doit tenir compte à la fois de la perspective et de la réalité.

Dans une perspective à long terme, la solution au "problème du chômage de l'IA" implique un changement fondamental du système social humain, et elle ne peut être résolue que par le développement d'une technologie intelligente et d'une gouvernance intelligente. Selon les principes de base du marxisme, le « problème du chômage de l'IA » reflète la contradiction entre le développement de la productivité scientifique et technologique et les rapports de production existants. La capacité des robots à remplacer le travail humain ne signifie pas qu'ils remplacent réellement le travail humain, car un tel remplacement signifie l'annulation du système d'exploitation dans lequel quelques personnes forcent la majorité des gens à travailler par le biais d'arrangements institutionnels. Essentiellement, pour résoudre le "problème du chômage de l'IA", nous devons continuellement réduire les heures de travail des ouvriers, donner aux gens plus de temps libre et, en fin de compte, éliminer complètement le système d'exploitation. L'histoire du travail du 20e siècle montre que l'application de la technologie moderne dans la production continue de réduire le temps de travail total nécessaire à la société et favorise la mise en œuvre du "système de travail de huit heures" et du "système du week-end" par de plus en plus de pays. .

D'un point de vue réel, l'évolution du système social prend beaucoup de temps, et il doit être avancé progressivement et régulièrement, et il doit attendre le développement continu de la technologie intelligente. Par conséquent, le problème le plus urgent est de trouver de nouveaux emplois. pour les travailleurs qui ont été touchés par l'intelligence artificielle, et s'assurer qu'ils peuvent profiter de la richesse matérielle créée par le progrès technologique.

Par conséquent, au début de l'éclosion de l'industrialisation de l'AIGC, le pays, le gouvernement et la société devraient mener des recherches approfondies, élaborer des plans globaux et répondre activement à la pression du chômage et de l'emploi qui pourrait survenir.

Par exemple, améliorer l'assurance-chômage et fournir des services de formation au réemploi, renforcer la planification de carrière et l'amélioration de la qualité créative pour les jeunes, ajuster l'orientation des talents scolaires, en particulier dans les sciences humaines, l'art et d'autres disciplines, et promouvoir à tort la modernisation industrielle pour créer de nouveaux emplois. Bref, face au risque de chômage que peut accompagner l'IA, il faut renoncer à la pensée extrême du ou bien, essayer de l'éviter, et l'ajuster en temps réel.

**03 Comment l'IA chinoise est-elle régie ? **

Construire une Chine numérique est un moteur important pour promouvoir la modernisation à la chinoise à l'ère numérique, et c'est un soutien solide pour créer de nouveaux avantages dans la concurrence nationale.

Dans la construction de la Chine numérique, il est nécessaire de promouvoir une gouvernance de l'IA "centrée sur les personnes" afin que l'IA puisse réellement bénéficier à la société. Pour ce faire, nous devons d'abord appeler l'ensemble de la société à prêter attention à la question des risques d'IA. Le gouvernement, les entreprises, les ONG, les milieux scientifiques et technologiques et le public, selon la répartition des responsabilités, améliorent les politiques et les mesures, renforcer l'intégration des moyens et la coordination des forces, et constituer une force d'action conjointe pour la maîtrise des risques IA Les programmes sont en cours de mise en œuvre.

En outre, les suggestions de principe suivantes peuvent également être prises en compte dans la gouvernance des risques liés à l'IA :

Tout d'abord, appliquez le principe des outils limités. Nous devons avoir une compréhension claire du rôle de la gouvernance intelligente - la gouvernance intelligente n'est pas une "arme parfaite" panacée, dans de nombreux cas elle "échouera" et ira même du côté opposé de l'entrave à l'efficacité sociale. Par conséquent, il est nécessaire de reconnaître le rôle de la technologie intelligente dans l'amélioration de l'efficacité de la gouvernance dans certains domaines, certains problèmes et certaines occasions, et de donner la priorité aux moyens techniques de gouvernance pour résoudre les problèmes, tout en gardant toujours à l'esprit le rôle limité de la technologie intelligente . Adhérer à la modestie de la science et de la technologie, être attentif à la "superstition des mégadonnées", adopter une attitude d'examen du contexte spécifique et de l'analyse spécifique, et prêter attention au retour d'effet réel et au contrôle des risques des activités de gouvernance.

Deuxièmement, insistez pour que l'on mette autant l'accent sur l'utilisation que sur le contrôle. Il faut jouer le rôle de la gouvernance intelligente, mais aussi contrôler une gouvernance intelligente spécifique pour éviter que la puissance des plateformes intelligentes et des experts techniques de la gouvernance ne s'emballe. Dans le même temps, des méthodes institutionnelles et techniques doivent être utilisées pour éviter les risques sociaux pouvant être causés par une gouvernance intelligente.

Troisièmement, traitez correctement le "problème du chômage de l'IA". Le plus grand impact de l'application de la technologie intelligente sur les activités de gouvernance contemporaines réside dans : l'élargissement de la liberté économique, l'augmentation du temps de loisir, la modification considérable des conditions préalables à la gouvernance publique, et donc la modification de l'apparence fondamentale du fonctionnement social. Cependant, cet impact signifie également que le "problème du chômage de l'IA" devient de plus en plus grave, ce qui pose de sérieux défis aux activités de gouvernance de l'ensemble de la société, attire l'attention de l'ensemble de la société et doit être traité avec prudence.

Quatrièmement, intégrer étroitement la construction de "ville intelligente" et "village numérique". La gestion scientifique d'une ville est une mesure stratégique importante pour la gouvernance technologique contemporaine, et une ville intelligente est une forme avancée de ville scientifique. Étant donné que les humains vivent actuellement principalement dans les villes, en particulier les grandes et super grandes villes, la gouvernance intelligente actuelle est principalement promue autour de la construction de "villes intelligentes", ou la construction de "villes intelligentes" comme vecteur principal. En particulier, la construction de la Chine numérique ne peut ignorer la construction de villages numériques, et des efforts doivent être faits pour réduire l'écart entre les zones urbaines et rurales grâce à la numérisation.

Cinquièmement, faites attention à l'intégration de la technologie intelligente et des personnes. Dans les activités de gouvernance technologique, meilleure est la combinaison de la technologie et des personnes, meilleure est l'efficacité de la gouvernance. Pour renforcer l'intégration des facteurs humains et techniques dans les activités de gouvernance intelligente, il est nécessaire de réfléchir systématiquement aux caractéristiques des différentes technologies intelligentes et à l'éthique, aux lois, à la psychologie, à la gestion de crise, etc., pour favoriser la construction de systèmes, la recherche et le développement technologiques. , et les réserves de talents, et pour renforcer le leadership organisationnel. , la consultation d'experts et les exercices de combat réels, et améliorer continuellement et systématiquement les capacités de gouvernance intelligente de la Chine.

Sixièmement, distinguer la gouvernance de la manipulation dans des contextes spécifiques. Il y a une limite à la gouvernance intelligente, et si elle dépasse la limite, elle devient une manipulation intelligente et viole les droits fondamentaux des citoyens. Le développement futur de la gouvernance intelligente doit notamment tenir compte des limites des différentes applications, non seulement des objectifs de gouvernance mais aussi des moyens mis en œuvre, qui ne peuvent être revus qu'avec calme, objectivité et prudence dans un contexte social précis. Pour empêcher la gouvernance intelligente d'évoluer vers une manipulation intelligente, une question très importante est que le comportement anti-gouvernance de la gouvernance intelligente doit être toléré dans une certaine mesure.

Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate.io app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)