¿Musk está pidiendo una moratoria en el desarrollo de IA para ser un "chorro"?

Enfoque: ① Esté alerta al desarrollo de la IA y evite que la IA se salga de control, lo que se está convirtiendo en la "corrección política" en el campo de la ciencia y la tecnología en todo el mundo; ② Sobre el tema de prevenir estrictamente la autoextinción humana, muchos riesgos como la guerra nuclear, el cambio climático, la propagación de virus mortales y el abuso de la biotecnología deben clasificarse por delante de la súper IA; ③La IA puede conducir a varios riesgos sociales. El círculo académico ha señalado durante mucho tiempo que también se han propuesto varias contramedidas. El problema actual es implementar medidas de gobernanza de la IA de acuerdo con las condiciones nacionales, no suspender la investigación y el desarrollo; ④ Si no hay un acuerdo de política general, ChatGPT definitivamente conducirá a una gran cantidad de "desempleo de IA", lo que a su vez dificultará la aplicación posterior de ChatGPT.

Autor: Liu Yongmou, Profesor de la Escuela de Filosofía, Universidad Renmin de China, Investigador de la Academia Nacional de Desarrollo y Estrategia

En marzo de 2023, miles de expertos, incluido Elon Musk, firmaron conjuntamente una carta abierta pidiendo una moratoria en el entrenamiento de modelos de inteligencia artificial (IA) de seguimiento de GPT-4 durante al menos 6 meses. Tan pronto como salió la noticia, detonó la red global y los medios, y pronto atrajo la oposición de Wu Enda y otros "expertos en IA". Al final, no hubo más información sobre este asunto, y se sospechó que la suspensión de GPT-4 era una ola de publicidad por parte de OpenAI.

En abril, se informó que Italia prohibiría por completo ChatGPT y el resultado fue una multa.

En mayo, el presidente de EE. UU. Biden y el vicepresidente Harris también se unieron a la diversión y mantuvieron reuniones con los directores ejecutivos de las principales empresas de inteligencia artificial Alphabet, Microsoft, OpenAI y Anthropic, la empresa matriz de Google, para presionar a las empresas para que implementen salvaguardas. en torno a la inteligencia artificial Apoyar nuevas regulaciones o legislación para mitigar los daños potenciales de las tecnologías de IA.

"Musk y su novia de IA" realizado por usuarios que utilizan herramientas de IA generativa Fuente: Internet

Todo parece venir pronto, parece que la inteligencia artificial generativa (GAI, Generated AI) representada por ChatGPT, Midjourney y DALL-E 2 ha generado nuevos y más graves riesgos sociales, dificultando el desarrollo de la sociedad humana y la aplicación de Tecnología de IA La situación general ha sufrido cambios fundamentales y es necesario adoptar nuevas estrategias, medidas y métodos para hacerle frente, como la suspensión total de la investigación y el desarrollo de nuevas tecnologías de IA.

¿Es realmente así? No.

En primer lugar, GAI no genera ningún riesgo nuevo, y los problemas que puede causar han sido discutidos y reclamados durante mucho tiempo por el círculo académico. En segundo lugar, no se necesitan nuevos métodos para hacer frente a los riesgos de GAI La clave para hacer frente a los riesgos de IA siempre ha sido la implementación.

El 11 de abril, la Oficina de Información de Internet de la República Popular China publicó públicamente las "Medidas de gestión del servicio de inteligencia artificial generativa (borrador para comentarios)", respondiendo a la gobernanza de GAI a una velocidad sin precedentes, lo que demuestra que la aplicación de GAI tiene un gran impacto social. impacto, y debe ser cuidadosamente estudiado e implementado cuidadosamente Responda rápidamente.

01 Cuidado con la IA fuera de control - "corrección política" en el campo de la tecnología global

  1. Desempleo, es decir, puede conducir a una gran cantidad de desempleo de trabajadores mentales, como planificadores de redacción, artistas originales, diseñadores industriales, programadores, profesionales de los medios y traductores.

  2. Problemas educativos, es decir, puede afectar el sistema educativo y de investigación científica existente, por ejemplo, los estudiantes pueden usar ChatGPT en lugar de hacer su tarea.

  3. Problemas de seguridad de la información, es decir, GAI genera automáticamente una gran cantidad de contenido de producción de inteligencia artificial (AIGC, AI Generated Content), que es difícil de distinguir entre autenticidad y falsedad, posiciones sospechosas, propiedad poco clara y responsabilidad difícil. incluso convertirse en un desafío a los valores dominantes y una herramienta peligrosa de la ideología.

Los riesgos de la IA han sido valorados durante mucho tiempo por los gobiernos de varios países y se han convertido en el foco de atención de toda la sociedad en los últimos años. Obviamente, los tres impactos principales causados por el GAI antes mencionado no son problemas nuevos, y han sido preocupados y estudiados por los círculos académicos y el gobierno desde que estalló ChatGPT.

En los últimos diez años, desde Internet de las cosas hasta big data, computación en la nube, blockchain, Metaverse, ChatGPT, entre oleadas de aumento de la IA, nunca han faltado voces para prestar atención a los riesgos.

Me preocupa profesionalmente el impacto social de las nuevas tecnologías y he dedicado mucha energía a recordarles a todos los riesgos técnicos que la IA puede causar. Por ejemplo, ha escrito monografías "Teoría general de la gobernanza tecnológica", "Internet de las cosas y la llegada de la sociedad ubicua", "No tengo medicina para la enfermedad tecnológica", "Trampa del metaverso", "Catorce conferencias sobre ciencia y tecnología y Sociedad”, recordando a los no profesionales de las TIC (Impactos sociales y riesgos tecnológicos de las tecnologías de la información y la comunicación).

Se puede decir que estar alerta contra el desarrollo de la IA y evitar que la IA se salga de control se está convirtiendo en la "corrección política" en el campo de la ciencia y la tecnología en todo el mundo. Bajo este ambiente, las voces que declaraban públicamente que "AI no tiene áreas restringidas" fueron fuertemente reprimidas. En este sentido, como teórico de la selección del control tecnológico, estoy totalmente de acuerdo.

En lo que respecta a la situación actual de desarrollo, ¿qué riesgos graves tiene ChatGPT que deben ser tratados de manera "sobrepesada", como suspender durante al menos seis meses?

Algunas personas dicen que ChatGPT es una señal del surgimiento de la súper IA. Si no se detiene ahora (nota: no es solo una suspensión), una vez que se abra la "Caja de Pandora", los seres humanos pronto serán gobernados o incluso extinguidos. por súper IA. Es difícil para la gente tomar en serio ideas tan fantasiosas. En particular, muchos profesionales no reconocen a ChatGPT como una IA general, y mucho menos como un prototipo de una súper IA.

La súper IA puede ser un problema, pero cuando se trata de prevenir la autoextinción humana, muchos riesgos, como la guerra nuclear, el cambio climático, la propagación de virus mortales y el abuso de la biotecnología, deben clasificarse por delante de la súper IA. ¿Los detenemos a todos primero? Incluso si no se puede detener, está bien hacer una pausa, al menos puede pedir una pausa.

Dado que no hay nada nuevo, no hay necesidad de adoptar el enfoque drástico de pausar el desarrollo, ¿por qué?

En primer lugar, la suspensión es injustificada. Algunas personas dicen que las medidas de respuesta al riesgo de ChatGPT no se han pensado claramente, por lo que se suspende primero. ¡equivocado! No es que no pensara con claridad, sino que no lo implementé en su lugar.

En segundo lugar, la moratoria es imposible de lograr y definitivamente habrá empresas de inteligencia artificial que violarán la prohibición y el resultado será una competencia desleal.

Tercero, la suspensión no resolverá el problema. Incluso si todas las empresas de IA realmente suspendieran la investigación de GAI, ¿se resolverá el problema del riesgo? ¡No! A menos que los LLM (Large Language Models, modelo de lenguaje grande) se detengan y prohíban por completo, el riesgo no desaparecerá. Al reiniciar, aún debe enfrentar los riesgos de frente.

Hoy en día, la nueva tecnología es la herramienta más importante para la supervivencia y el desarrollo humano que no se puede dejar atrás. El papel de GAI en la promoción de la productividad social ha sido claramente revelado ¿Por qué debemos dejar de comer por atragantamiento y por qué no podemos usarlo de manera controlada?

En el siglo XX, algunas personas sugirieron que la tecnología en ese momento era suficiente para los seres humanos y que el desarrollo continuo conduciría a muchos problemas nuevos. La tecnología debería detenerse y los científicos deberían dejar de investigar. Estas ideas extremadamente irracionales nunca han sido tomadas en serio por la sociedad.

02 Suspender la investigación y el desarrollo de GAI no se puede realizar, es puramente inválido "pistola de boca"

La IA puede conducir a varios riesgos sociales.El círculo académico ha señalado durante mucho tiempo que también se han propuesto varias contramedidas. Por lo tanto, la cuestión ahora es implementar medidas de gobernanza de la IA de acuerdo con las condiciones nacionales, no suspender la investigación y el desarrollo de la IA. Los hechos han demostrado que la idea de suspender la investigación y el desarrollo de GAI es simple y grosera, con poco efecto e imposible de realizar. Es un "hablar" puramente inválido.

Tomemos como ejemplo el problema del desempleo de la IA. El problema del desempleo de la IA, es decir, el avance de la inteligencia artificial va acompañado de que cada vez más personas pierden su trabajo, es el mayor problema en el impacto social de la IA e implica una innovación institucional integral de toda la sociedad. La literatura existente analiza el tema del desempleo de la IA, que puede describirse como abrumador, y existen muchas contramedidas específicas, como la planificación profesional de los estudiantes, la mejora de la alfabetización de los trabajadores en IA, la seguridad social y el reempleo de los desempleados, la mejora y la transformación de estructura industrial, etc

La planificación estratégica a largo plazo también es impresionante, como la reducción sistemática de las horas de trabajo de los trabajadores (algunos lugares ya intentan trabajar 4 días a la semana), la recaudación de impuestos de IA (IA es la cristalización de la inteligencia humana, y las empresas de IA pagan fuertes impuestos para compartir entre todas las personas), sistema de jubilación flexible (los trabajadores pueden jubilarse brevemente varias veces a lo largo de su vida), etc.

El mayor impacto de las aplicaciones de IA en las actividades de gobierno contemporáneo radica en: expandir la libertad económica, aumentar el tiempo libre, cambiar en gran medida los requisitos previos para el gobierno público y, por lo tanto, cambiar la apariencia fundamental de las operaciones sociales. Sin embargo, este impacto también significa que el "problema del desempleo de AI" se está volviendo cada vez más grave, lo que plantea serios desafíos para las actividades de gobernanza de toda la sociedad y debe abordarse con prudencia. La industrialización de AIGC demostrará una vez más la gravedad del problema del desempleo de la IA. Si no existe un acuerdo de política general, ChatGPT definitivamente conducirá a una gran cantidad de "desempleo de IA", lo que a su vez dificultará la aplicación posterior de ChatGPT.

Cómic: Los robots se hacen cargo de tareas repetitivas como la fabricación y el embalaje Fuente: TC

La solución al "problema del desempleo de la IA" debe tener en cuenta tanto la perspectiva como la realidad.

Desde una perspectiva a largo plazo, la solución al "problema del desempleo de la IA" implica un cambio fundamental en el sistema social humano, y no puede resolverse solo mediante el desarrollo de tecnología inteligente y una gobernanza inteligente. De acuerdo con los principios básicos del marxismo, el "problema del desempleo AI" refleja la contradicción entre el desarrollo de la productividad científica y tecnológica y las relaciones de producción existentes. La capacidad de los robots para reemplazar el trabajo humano no significa que realmente reemplace el trabajo humano, porque tal reemplazo significa cancelar el sistema de explotación en el que unas pocas personas obligan a la mayoría a trabajar a través de arreglos institucionales. En esencia, para resolver el "problema del desempleo de AI", debemos reducir continuamente las horas de trabajo de los trabajadores, dar a las personas más tiempo libre y, en última instancia, eliminar por completo el sistema de explotación. La historia laboral del siglo XX muestra que la aplicación de la tecnología moderna en la producción continúa reduciendo el tiempo total de trabajo necesario para la sociedad, y promueve la implementación del "sistema de trabajo de ocho horas" y el "sistema de fin de semana" por cada vez más países. .

Desde el punto de vista de la realidad, la evolución del sistema social lleva mucho tiempo, y debe avanzar de forma gradual y constante, y debe esperar el desarrollo continuo de la tecnología inteligente. Por lo tanto, el problema más urgente es encontrar nuevos puestos de trabajo. para los trabajadores que han sido impactados por la inteligencia artificial, y asegurar que puedan disfrutar de la riqueza material creada por el progreso tecnológico.

Por lo tanto, al comienzo del estallido de la industrialización de AIGC, el país, el gobierno y la sociedad deben realizar una investigación profunda, hacer planes generales y responder activamente a la presión del desempleo y el empleo que pueda surgir.

Por ejemplo, mejorar el seguro de desempleo y brindar servicios de capacitación para el reempleo, fortalecer la planificación profesional y la mejora de la calidad creativa para los jóvenes, ajustar la dirección de los talentos escolares, especialmente en humanidades, arte y otras disciplinas, y promover indebidamente la mejora industrial para crear nuevos puestos de trabajo. En resumen, ante el riesgo de desempleo que puede acompañar a la IA, debemos abandonar el pensamiento extremo de uno u otro, tratar de evitarlo y ajustarlo en tiempo real.

**03 ¿Cómo se rige la IA de China? **

Construir una China digital es un motor importante para promover la modernización al estilo chino en la era digital y es un fuerte apoyo para construir nuevas ventajas en la competencia nacional.

En la construcción de la China digital, es necesario promover la gobernanza de la IA "centrada en las personas" para que la IA realmente pueda beneficiar a la sociedad. Con este fin, primero debemos hacer un llamado a toda la sociedad para que preste atención al tema de los riesgos de la IA. El gobierno, las empresas, las ONG, los círculos científicos y tecnológicos y el público, de acuerdo con la división de responsabilidades, mejoran las políticas y medidas, fortalecer la integración de recursos y la coordinación de fuerzas, y formar una fuerza de acción conjunta para controlar los riesgos de IA Los programas se están implementando actualmente.

Además, las siguientes sugerencias de principios también se pueden considerar en la gobernanza de los riesgos de IA:

Primero, implemente el principio de herramientas limitadas. Debemos tener una comprensión clara del papel de la gobernanza inteligente: la gobernanza inteligente no es una panacea "arma perfecta", en muchos casos también "fracasará", e incluso irá al lado opuesto de obstaculizar la eficiencia social. Por lo tanto, es necesario reconocer el papel de la tecnología inteligente en la mejora de la eficiencia de la gobernanza en ciertos campos, ciertos problemas y ciertas ocasiones, y dar prioridad a los medios de gobernanza técnica para resolver problemas, teniendo siempre en cuenta el papel limitado de la tecnología inteligente. . Adhiérase a la modestia de la ciencia y la tecnología, esté alerta a la "superstición de big data", adopte una actitud de revisión del contexto específico y el análisis específico, y preste atención a la retroalimentación del efecto real y al control de riesgos de las actividades de gobierno.

Segundo, insista en el mismo énfasis en la utilización y el control. Es necesario desempeñar el papel de gobierno inteligente, pero también controlar un gobierno inteligente específico para evitar que el poder de las plataformas inteligentes y los expertos en gobierno técnico se salgan de control. Al mismo tiempo, se deben utilizar métodos institucional-técnicos para evitar los riesgos sociales que puede causar una gobernanza inteligente.

En tercer lugar, manejar adecuadamente el "problema del desempleo AI". El mayor impacto de la aplicación de tecnología inteligente en las actividades de gobierno contemporáneo radica en: expandir la libertad económica, aumentar el tiempo libre, cambiar en gran medida los requisitos previos para el gobierno público y, por lo tanto, cambiar la apariencia fundamental de la operación social. Sin embargo, este impacto también significa que el "problema del desempleo de AI" se está volviendo cada vez más grave, lo que plantea serios desafíos para las actividades de gobernanza de toda la sociedad, atrae la atención de toda la sociedad y debe abordarse con prudencia.

En cuarto lugar, integre estrechamente la construcción de "ciudad inteligente" y "aldea digital". Dirigir una ciudad científicamente es una medida estratégica importante para la gobernanza tecnológica contemporánea, y una ciudad inteligente es una forma avanzada de ciudad científica. Dado que los humanos actualmente viven principalmente en ciudades, especialmente en ciudades grandes y supergrandes, la gobernanza inteligente actual se promueve principalmente en torno a la construcción de "ciudades inteligentes" o la construcción de "ciudades inteligentes" como principal portador. En particular, la construcción de la China digital no puede ignorar la construcción de aldeas digitales, y se deben hacer esfuerzos para reducir la brecha entre las áreas urbanas y rurales a través de la digitalización.

En quinto lugar, preste atención a la integración de tecnología inteligente y personas. En las actividades de gobernanza tecnológica, cuanto mejor sea la combinación de tecnología y personas, mayor será la eficiencia de la gobernanza. Para fortalecer la integración de factores humanos y técnicos en las actividades de gobernanza inteligente, es necesario reflexionar sistemáticamente sobre las características de varias tecnologías inteligentes y la ética, las leyes, la psicología, la gestión de crisis, etc. relacionadas, para promover la construcción de sistemas, investigación y desarrollo tecnológico. y reservas de talento, y para fortalecer el liderazgo organizacional., consulta de expertos y ejercicios de combate reales, y mejorar continua y sistemáticamente las capacidades de gobierno inteligente de China.

Sexto, distinguir la gobernanza de la manipulación en contextos específicos. Hay un límite para la gobernanza inteligente, y si supera el límite, se convierte en manipulación inteligente y viola los derechos básicos de los ciudadanos. El desarrollo futuro de la gobernanza inteligente debe considerar específicamente los límites de las diversas aplicaciones, lo que implica no solo los objetivos de la gobernanza, sino también los medios utilizados, y solo puede revisarse con calma, objetividad y cautela en un contexto social específico. Para evitar que la gobernanza inteligente avance hacia la manipulación inteligente, una cuestión muy importante es que se debe tolerar hasta cierto punto el comportamiento antigobernante de la gobernanza inteligente.

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)