Musk está pedindo que uma moratória no desenvolvimento da IA seja um "bico"?

Foco: ① Esteja atento ao desenvolvimento da IA e evite que a IA saia do controle, que está se tornando o "politicamente correto" no campo da ciência e tecnologia em todo o mundo; ② Sobre a questão da prevenção estrita da autoextinção humana, muitos riscos, como guerra nuclear, mudança climática, propagação de vírus mortais e abuso de biotecnologia devem ser classificados à frente da super IA; ③IA pode levar a vários riscos sociais. O círculo acadêmico há muito aponta que várias contramedidas também foram apresentadas. O problema atual é implementar medidas de governança de IA de acordo com as condições nacionais, não suspender a pesquisa e o desenvolvimento; ④ Se não houver um acordo geral de política, o ChatGPT certamente levará a um grande número de "desemprego AI", o que, por sua vez, impedirá a aplicação posterior do ChatGPT.

Autor: Liu Yongmou, Professor da Escola de Filosofia, Universidade Renmin da China, Pesquisador da Academia Nacional de Desenvolvimento e Estratégia

Em março de 2023, milhares de especialistas, incluindo Elon Musk, assinaram em conjunto uma carta aberta pedindo uma moratória no treinamento de modelos de inteligência artificial (IA) de acompanhamento GPT-4 por pelo menos 6 meses. Assim que a notícia foi divulgada, ela detonou a rede e a mídia global e logo atraiu a oposição de Wu Enda e outros "especialistas em IA". No final, não houve mais informações sobre o assunto, e a suspensão do GPT-4 foi suspeita de ser uma onda de hype da OpenAI.

Em abril, foi relatado que a Itália baniria completamente o ChatGPT e o resultado foi uma multa.

Em maio, o presidente dos Estados Unidos, Biden, e o vice-presidente Harris também se juntaram à diversão e realizaram uma reunião com os CEOs das principais empresas de inteligência artificial Alphabet, Microsoft, OpenAI e Anthropic, empresa controladora do Google, para pressionar as empresas a implementar salvaguardas em torno da inteligência artificial, dizendo Apoie novos regulamentos ou legislação para mitigar os danos potenciais das tecnologias de IA.

"Musk e sua namorada AI" feito por usuários usando ferramentas generativas de IA Fonte: Internet

Tudo parece estar chegando. Parece que a inteligência artificial generativa (GAI, Generated AI) representada por ChatGPT, Midjourney e DALL-E 2 gerou novos e mais sérios riscos sociais, dificultando o desenvolvimento da sociedade humana e a aplicação de Tecnologia de IA A situação geral sofreu mudanças fundamentais e novas estratégias, medidas e métodos precisam ser adotados para lidar com isso, como a suspensão total da pesquisa e desenvolvimento de novas tecnologias de IA.

é realmente assim? não.

Em primeiro lugar, o GAI não traz novos riscos, e os problemas que pode causar há muito são discutidos e reclamados pelo meio acadêmico. Em segundo lugar, nenhum novo método é necessário para lidar com riscos de IA. A chave para lidar com riscos de IA sempre foi a implementação.

Em 11 de abril, o Escritório de Informações da Internet da República Popular da China divulgou publicamente as "Medidas Geradoras de Gerenciamento de Serviços de Inteligência Artificial (Rascunho para Comentário)", respondendo à governança do GAI em uma velocidade sem precedentes, provando que a aplicação do GAI tem um enorme impacto social impacto e deve ser cuidadosamente estudado e implementado com cuidado.Responda rapidamente.

01 Cuidado com a IA fora de controle - "politicamente correto" no campo da tecnologia global

  1. Problema de desemprego, ou seja, pode levar a um grande número de desemprego de trabalhadores mentais, como planejadores de redação, artistas originais, designers industriais, programadores, profissionais de mídia e tradutores.

  2. Questões educacionais, ou seja, podem impactar o sistema de ensino e pesquisa científica existente, por exemplo, os alunos podem usar o ChatGPT em vez de fazer o dever de casa.

  3. Questões de segurança da informação, ou seja, o GAI gera automaticamente uma grande quantidade de conteúdo de produção de inteligência artificial (AIGC, AI Generated Content), o que dificulta a distinção entre autenticidade e falsidade, posições suspeitas, propriedade pouco clara e responsabilização difícil. até mesmo se tornou um desafio para os valores dominantes e uma ferramenta perigosa para a ideologia.

Os riscos da IA há muito são valorizados pelos governos de vários países, e tornaram-se foco de atenção de toda a sociedade nos últimos anos. Obviamente, os três grandes impactos causados pelo referido GAI não são problemas novos, e têm sido preocupados e estudados pelos meios acadêmicos e pelo governo desde a explosão do ChatGPT.

Nos últimos dez anos, da Internet das Coisas ao big data, computação em nuvem, blockchain, Metaverse, ChatGPT, entre ondas de aumento da IA, nunca faltaram vozes para prestar atenção aos riscos.

Estou profissionalmente preocupado com o impacto social das novas tecnologias e gastei muita energia lembrando a todos os riscos técnicos que a IA pode causar. Por exemplo, ele escreveu monografias "Teoria Geral da Governança Tecnológica", "Internet das Coisas e a Vinda da Sociedade Ubíqua", "Não tenho remédio para doença tecnológica", "Armadilha do Metaverso", "Quatorze Palestras sobre Ciência e Tecnologia e Sociedade", lembrando aos não profissionais de TIC (Impactos sociais e riscos tecnológicos das tecnologias de informação e comunicação).

Pode-se dizer que estar vigilante contra o desenvolvimento da IA e impedir que ela saia do controle está se tornando o "politicamente correto" no campo da ciência e tecnologia em todo o mundo. Nessa atmosfera, as vozes que declaravam publicamente que "a IA não tem áreas restritas" foram bastante reprimidas. A esse respeito, como teórico da seleção de controle tecnológico, concordo plenamente.

No que diz respeito à situação atual de desenvolvimento, que riscos graves o ChatGPT tem que devem ser tratados de forma "exagerada", como suspensão por pelo menos seis meses?

Algumas pessoas dizem que o ChatGPT é um sinal do surgimento da super IA. Se não for parado agora (nota: não é apenas uma suspensão), uma vez que a "Caixa de Pandora" for aberta, os seres humanos logo serão governados ou até mesmo extintos por super IA. É difícil para as pessoas levar a sério essas idéias fantasiosas. Em particular, muitos profissionais não reconhecem o ChatGPT como uma IA geral, muito menos um protótipo de uma super IA.

A super IA pode ser um problema, mas quando se trata de prevenir a autoextinção humana, muitos riscos, como guerra nuclear, mudança climática, disseminação de vírus mortais e abuso da biotecnologia, devem ser classificados à frente da super IA. Vamos parar todos eles primeiro? Mesmo que não possa ser interrompido, não há problema em fazer uma pausa, pelo menos você pode pedir uma pausa.

Como não há nada de novo, não há necessidade de adotar a abordagem drástica de interromper o desenvolvimento, por quê?

Em primeiro lugar, a suspensão é injustificada. Algumas pessoas dizem que as medidas de resposta ao risco do ChatGPT não foram pensadas com clareza, por isso são suspensas primeiro. errado! Não é que eu não tenha pensado com clareza, mas não o implementei no lugar.

Em segundo lugar, a moratória é realmente impossível de ser alcançada e certamente haverá empresas de IA que violarão a proibição e o resultado será uma concorrência desleal.

Em terceiro lugar, a suspensão não resolverá o problema. Mesmo que todas as empresas de IA realmente suspendam a pesquisa GAI, o problema do risco será resolvido? Não! A menos que os LLMs (Large Language Models, large language model) sejam completamente interrompidos e banidos, o risco não desaparecerá. Ao reiniciar, você ainda terá que enfrentar os riscos de frente.

Hoje, a nova tecnologia é a ferramenta mais importante para a sobrevivência e desenvolvimento humano que não pode ser deixada para trás. O papel do GAI na promoção da produtividade social foi claramente revelado: por que devemos parar de comer por causa do engasgo e por que não podemos usá-lo de maneira controlada?

No século 20, algumas pessoas sugeriram que a tecnologia da época era suficiente para os seres humanos, e o desenvolvimento contínuo levaria a muitos novos problemas. A tecnologia deveria ser interrompida e os cientistas deveriam parar de fazer pesquisas. Tais ideias extremamente irracionais nunca foram levadas a sério pela sociedade.

**02 A suspensão da pesquisa e desenvolvimento do GAI não pode ser realizada, é uma "arma de boca" puramente inválida **

A IA pode levar a vários riscos sociais. O círculo acadêmico há muito aponta que várias contramedidas também foram apresentadas. Portanto, a questão agora é implementar medidas de governança de IA de acordo com as condições nacionais, não suspender a pesquisa e o desenvolvimento de IA. Os factos provaram que a ideia de suspender a investigação e o desenvolvimento do GAI é simples e grosseira, pouco eficaz e impossível de concretizar, é um "falar" puramente inválido.

Tomemos como exemplo o problema do desemprego da IA. O problema do desemprego da IA, ou seja, o avanço da inteligência artificial vem acompanhado de cada vez mais pessoas perdendo seus empregos, é o maior problema no impacto social da IA, e envolve inovação institucional abrangente de toda a sociedade. A literatura existente discute a questão do desemprego de IA, que pode ser descrito como esmagador, e existem muitas contramedidas específicas, como planejamento de carreira de estudantes, melhoria da alfabetização de trabalhadores em IA, previdência social e reemprego de desempregados, atualização e transformação de estrutura industrial, etc.

O planejamento estratégico de longo prazo também é impressionante, como reduzir sistematicamente a jornada de trabalho dos trabalhadores (alguns lugares já estão tentando trabalhar 4 dias por semana), arrecadar impostos de IA (IA é a cristalização da inteligência humana e as empresas de IA são tributadas pesadamente para todas as pessoas compartilharem), sistema de aposentadoria flexível (os trabalhadores podem se aposentar brevemente várias vezes ao longo da vida), etc.

O maior impacto das aplicações de IA nas atividades de governança contemporânea reside em: expandir a liberdade econômica, aumentar o tempo de lazer, mudar muito os pré-requisitos para a governança pública e, assim, mudar a aparência fundamental das operações sociais. No entanto, este impacto também significa que o “problema do desemprego AI” está se tornando cada vez mais grave, o que coloca sérios desafios para as atividades de governança de toda a sociedade e deve ser tratado com prudência. A industrialização da AIGC provará mais uma vez a gravidade do problema do desemprego da IA. Se não houver um acordo geral de política, o ChatGPT certamente levará a um grande número de "desemprego AI", o que, por sua vez, impedirá a aplicação posterior do ChatGPT.

Quadrinhos: os robôs assumem tarefas repetitivas, como fabricação e embalagem Fonte: TC

A solução para o "problema do desemprego da IA" deve levar em conta tanto a perspectiva quanto a realidade.

De uma perspectiva de longo prazo, a solução para o "problema do desemprego da IA" envolve uma mudança fundamental no sistema social humano e não pode ser resolvida apenas pelo desenvolvimento de tecnologia inteligente e governança inteligente. De acordo com os princípios básicos do marxismo, o "problema do desemprego AI" reflete a contradição entre o desenvolvimento da produtividade científica e tecnológica e as relações de produção existentes. A capacidade dos robôs de substituir o trabalho humano não significa que eles realmente substituam o trabalho humano, porque tal substituição significa cancelar o sistema de exploração no qual algumas pessoas forçam a maioria das pessoas a trabalhar por meio de arranjos institucionais. Em essência, para resolver o "problema do desemprego AI", devemos reduzir continuamente as horas de trabalho dos trabalhadores, dar às pessoas mais tempo de lazer e, finalmente, eliminar completamente o sistema de exploração. A história do trabalho do século 20 mostra que a aplicação da tecnologia moderna na produção continua a reduzir o tempo total de trabalho necessário para a sociedade e promove a implementação do "sistema de trabalho de oito horas" e do "sistema de fim de semana" por mais e mais países .

Do ponto de vista da realidade, a evolução do sistema social leva muito tempo, e deve ser avançada de forma gradual e constante, e deve aguardar o desenvolvimento contínuo da tecnologia inteligente. Portanto, a questão mais urgente é encontrar novos empregos para trabalhadores que foram afetados pela inteligência artificial e garantir que eles possam desfrutar da riqueza material criada pelo progresso tecnológico.

Portanto, no início do surto de industrialização da AIGC, o país, o governo e a sociedade devem realizar pesquisas aprofundadas, fazer planos globais e responder ativamente às pressões do desemprego e do emprego que possam surgir.

Por exemplo, melhorar o seguro-desemprego e fornecer serviços de treinamento de reemprego, fortalecer o planejamento de carreira e a melhoria da qualidade criativa para os jovens, ajustar a direção dos talentos escolares, especialmente em humanidades, artes e outras disciplinas, e promover indevidamente a atualização industrial para criar novos empregos. Em suma, diante do risco de desemprego que a IA pode acompanhar, devemos abandonar o pensamento extremo de ou ou, tentar evitá-lo e ajustá-lo em tempo real.

**03 Como é governada a IA da China? **

Construir uma China digital é um motor importante para promover a modernização ao estilo chinês na era digital e é um forte suporte para construir novas vantagens na competição nacional.

Na construção da China digital, é necessário promover a governança da IA "centrada nas pessoas", para que a IA possa realmente beneficiar a sociedade. Para tanto, devemos primeiro convocar toda a sociedade a prestar atenção à questão dos riscos da IA. O governo, empresas, ONGs, círculos científicos e tecnológicos e o público, de acordo com a divisão de responsabilidades, aprimoram políticas e medidas, fortalecer a integração de recursos e a coordenação de forças e formar uma força de ação conjunta para controlar os riscos de IA Os programas estão sendo implementados de fato.

Além disso, as seguintes sugestões de princípios também podem ser consideradas na governança dos riscos de IA:

Primeiro, implemente o princípio de ferramentas limitadas. Devemos ter uma compreensão clara do papel da governança inteligente - a governança inteligente não é uma panacéia "arma perfeita", em muitos casos também "fracassará" e até mesmo irá para o lado oposto de dificultar a eficiência social. Portanto, é necessário reconhecer o papel da tecnologia inteligente na melhoria da eficiência da governança em certos campos, certos problemas e certas ocasiões, e dar prioridade aos meios técnicos de governança para resolver problemas, tendo sempre em mente o papel limitado da tecnologia inteligente . Aderir à modéstia da ciência e tecnologia, estar alerta para "superstição de big data", adotar uma atitude de revisão de contexto específico e análise específica e prestar atenção ao feedback de efeito real e controle de risco das atividades de governança.

Em segundo lugar, insista em igual ênfase na utilização e controle. É necessário desempenhar o papel de governança inteligente, mas também controlar a governança inteligente específica para evitar que o poder de plataformas inteligentes e especialistas em governança técnica saia do controle. Ao mesmo tempo, métodos técnico-institucionais devem ser usados para evitar os riscos sociais que podem ser causados pela governança inteligente.

Em terceiro lugar, lidar adequadamente com o "problema de desemprego AI". O maior impacto da aplicação da tecnologia inteligente nas atividades de governança contemporânea reside em: expandir a liberdade econômica, aumentar o tempo de lazer, mudar muito os pré-requisitos para a governança pública e, assim, mudar a aparência fundamental da operação social. No entanto, este impacto também significa que o “problema do desemprego AI” está se tornando cada vez mais grave, o que coloca sérios desafios para as atividades de governança de toda a sociedade, atrai a atenção de toda a sociedade e deve ser tratado com prudência.

Em quarto lugar, integrar estreitamente a construção de "cidade inteligente" e "aldeia digital". Administrar uma cidade cientificamente é uma medida estratégica importante para a governança tecnológica contemporânea, e uma cidade inteligente é uma forma avançada de cidade científica. Como os humanos atualmente vivem principalmente em cidades, especialmente grandes e supergrandes, a atual governança inteligente é promovida principalmente em torno da construção de "cidades inteligentes" ou da construção de "cidades inteligentes" como principal veículo. Em particular, a construção da China digital não pode ignorar a construção de aldeias digitais, e esforços devem ser feitos para reduzir a distância entre áreas urbanas e rurais por meio da digitalização.

Quinto, preste atenção à integração de tecnologia e pessoas inteligentes. Nas atividades de governança tecnológica, quanto melhor a combinação de tecnologia e pessoas, maior a eficiência da governança. Para fortalecer a integração de fatores humanos e técnicos nas atividades de governança inteligente, é necessário refletir sistematicamente sobre as características de várias tecnologias inteligentes e ética, leis, psicologia, gerenciamento de crises, etc., para promover a construção de sistemas, pesquisa e desenvolvimento de tecnologia , e reservas de talentos, e para fortalecer a liderança organizacional. , consultoria de especialistas e exercícios de combate reais, e melhorar contínua e sistematicamente as capacidades de governança inteligente da China.

Sexto, distinguir governança de manipulação em contextos específicos. Há um limite para a governança inteligente e, se ultrapassar o limite, torna-se manipulação inteligente e viola os direitos básicos dos cidadãos. O desenvolvimento futuro da governança inteligente deve considerar especificamente os limites das diversas aplicações, envolvendo não apenas os objetivos da governança, mas também os meios utilizados, que só podem ser analisados com calma, objetividade e cautela em um contexto social específico. Para evitar que a governança inteligente avance para a manipulação inteligente, uma questão muito importante é que o comportamento antigovernança da governança inteligente deve ser tolerado até certo ponto.

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)