Saltar para o conteúdo

O novo plano de IA de Mark Zuckerberg alarma cientistas: estará ele a salvar a humanidade ou a destruí-la em segredo por lucro?

Homem de óculos analisa servidores e documentos numa sala moderna; computador portátil e smartphone presentes.

A primeira vez que vi Mark Zuckerberg apresentar a sério a sua nova visão de IA não foi num palco TED nem em Davos. Foi numa livestream ligeiramente constrangedora - ele outra vez com uma T‑shirt cinzenta - a falar descontraidamente sobre “agentes de IA que podem ajudar toda a gente em tudo”.
Sorriu como se estivesse a revelar um novo pack de emojis. Cientistas a verem em casa ouviram algo muito diferente: um sistema com um bilião de parâmetros ligado a milhares de milhões de vidas humanas.

Fora da bolha tecnológica, tudo isto parece estranhamente distante e, ao mesmo tempo, desconfortavelmente próximo. O seu telemóvel já completa os seus pensamentos. As suas redes sociais já adivinham o que o deixa zangado, triste ou viciado.

Agora, o homem que transformou a atenção social numa das máquinas mais lucrativas da história quer fazer o mesmo com a própria inteligência humana.
E a verdadeira pergunta não desaparece.

Quando Zuckerberg fala de “IA para todos”, os cientistas ouvem outra coisa

Em palco, o plano de IA da Meta soa simples e quase generoso. Modelos abertos, ferramentas gratuitas, assistentes inteligentes espalhados pelo Facebook, Instagram, WhatsApp, talvez até pelos seus óculos. Zuckerberg repete a mesma frase: isto é sobre “democratizar a IA” e “ajudar a humanidade a avançar”.

Nas primeiras filas das conferências de IA, alguns investigadores confessam que sentem um arrepio. Construir modelos cada vez maiores, treiná‑los com quantidades inimagináveis de dados e depois ligá‑los a uma rede social do tamanho de continentes. Isso não é apenas um roadmap de produto. É uma experiência planetária.

Eis um retrato concreto. Dentro da Meta, a empresa despejou dezenas de milhares de milhões na Llama, a sua família de grandes modelos de linguagem. A Llama 3, a estrela mais recente, é disponibilizada como “aberta” para que startups e amadores possam construir chatbots por cima. Ótimo para a inovação.

Mas cientistas que estudam segurança em IA apontam o outro lado. Um modelo poderoso e aberto também pode ser afinado para campanhas de desinformação, assédio automatizado ou fábricas de deepfakes. Um único leak de pesos pode armar milhares de maus atores de uma só vez.

Não é preciso uma revolta de robots de ficção científica. Basta um punhado de pessoas a otimizar estas ferramentas para o máximo caos num ano eleitoral.

Da perspetiva da investigação, o horror não é apenas o que a Meta está a construir. É a velocidade e a escala a que isto está a ser soldado à atenção humana. Assistentes de IA integrados em conversas do Messenger. Motores de recomendação discretamente melhorados com camadas de previsão mais inteligentes.

Alguns cientistas falam em “capabilities overhang”: modelos que se tornam surpreendentemente competentes em tarefas para as quais ninguém os treinou explicitamente. Atire isso para dentro de uma rede social que já empurra estados de espírito, escolhas e votos, e obtém um sistema que ninguém compreende por inteiro.

Sejamos honestos: ninguém lê realmente as atualizações completas de política de IA antes de clicar em “aceitar”. E é exatamente aí que o medo se infiltra.

Isto está mesmo a salvar-nos… ou apenas a transformar-nos em produtos melhores?

Antes de pintarmos Zuckerberg como um vilão de desenhos animados, vale a pena olhar para o que esta viragem para a IA pode, de facto, resolver. A Meta afirma que os seus modelos vão detetar discurso de ódio e conteúdos tóxicos mais depressa. Filtros de IA podem bloquear automaticamente spam e imagens violentas antes de chegarem ao seu feed. À escala da Meta, isso não é um “bom ter”; é sobrevivência operacional.

Imagine uma IA que consegue sinalizar uma publicação suicida em segundos, alertando moderadores ou linhas de emergência com muito mais sensibilidade do que os antigos filtros por palavras‑chave. Já há relatos dentro da empresa de ferramentas de IA a apanharem publicações perigosas às 3 da manhã, quando nenhuma equipa humana conseguiria reagir a tempo. Nesses momentos, a tecnologia parece um salvador silencioso.

Mas todos já passámos por isto: aquele momento em que faz scroll “só por cinco minutos” e, de repente, já passou uma hora. Agora imagine esse motor de atenção com um doutoramento em persuasão. IA que aprende não só no que clica, mas quanto tempo os seus olhos ficam, onde pára quando está cansado, que posts o puxam de volta depois de ameaçar sair.

Um investigador da Meta descreveu uma vez o algoritmo como “um otimizador implacável de engagement”. O receio é que os novos agentes de IA sejam esse mesmo otimizador com esteróides, disfarçado de assistente amigável. Pede ajuda para os trabalhos de casa, recebe um anúncio subtil. Pede conselhos de saúde, é empurrado para uma solução “patrocinada”. A linha entre ajudar e extrair começa a esbater‑se.

Do ponto de vista de negócio, o plano de Zuckerberg é brutalmente coerente. O crescimento da publicidade está a abrandar. Os utilizadores mais jovens flertam com o TikTok, o BeReal e o que aparecer a seguir. Portanto, a Meta precisa de um novo sistema operativo para a atenção. A IA é esse sistema.

Integrar agentes inteligentes em todas as apps significa mais motivos para ficar dentro do universo Meta. Mais dados sobre o que diz, sente e teme. Mais superfícies para vender às marcas como “experiências personalizadas”. Os cientistas não estão horrorizados porque a IA existe. Estão horrorizados porque uma tecnologia frágil e imprevisível está a ser fundida com a maior máquina de atenção orientada ao lucro da humanidade.

Uma frase crua ecoa nos círculos de investigação: se a sua receita depende de manter as pessoas agarradas, a sua IA vai aprender silenciosamente como as manter agarradas.

As escolhas silenciosas que decidem se isto se torna uma missão de resgate ou um desastre

Por trás dos grandes discursos, o verdadeiro poder está em centenas de pequenas decisões quase invisíveis. Que métricas importam mais: tempo passado ou indicadores de saúde mental? Um assistente de IA sugere uma pausa após 30 minutos de doomscrolling, ou empurra “só mais um” clip viral?

Designers dentro da Meta descrevem debates internos sobre fricção. Os sistemas de IA devem tornar fácil partilhar conteúdo político sensacionalista, ou adicionar pequenas lombas que dão às pessoas tempo para respirar? Um ligeiro atraso, uma confirmação extra, um rótulo que diz calmamente “este conteúdo é contestado”. Essas micro‑decisões podem mudar a trajetória de milhões de utilizadores por dia.

Para a pessoa comum, tudo isto parece ridiculamente abstrato. Só está a tentar responder a mensagens, publicar uma foto, talvez arranjar uma receita. Não está sentado a pensar se o seu gerador de autocolantes com IA contribui para uma experiência de longo prazo sobre cognição humana.

É por isso que muitos cientistas falam de agência. Não a da IA - a nossa. O maior erro, dizem, é tratar estas ferramentas como magia neutra que “simplesmente funciona”. Fazer perguntas básicas não é paranoia; é higiene. Quem treinou este modelo? Que dados usou para aprender? Posso optar por não participar, ou pelo menos desligar parte disto?

A quanto mais invisível a IA se torna nas suas apps do dia a dia, mais intencional precisa de ser na forma como a usa.

Antigos investigadores de IA da Meta, agora na academia, repetem muitas vezes um aviso simples: “Sistemas poderosos não precisam de intenção maligna para causar dano. Só precisam de incentivos maus e de não terem travões.” Preocupam-se menos com uma rebelião de robots do que com um deslizamento lento, ano após ano, para um mundo em que o nosso comportamento coletivo é empurrado por alguns modelos opacos treinados nos nossos cliques do passado.

  • Pergunte o que está a ser otimizado
    A IA está a tentar ajudá‑lo a resolver uma tarefa, ou a mantê‑lo envolvido o máximo de tempo possível? Essa pergunta muitas vezes revela quem manda, de facto.
  • Procure sinais de transparência
    Rótulos, explicações e painéis de controlo podem ser desajeitados, mas a ausência deles é um sinal de que o sistema não quer mesmo que você investigue.
  • Use fricção intencional
    Decida com antecedência quando e onde quer ajuda de IA - e onde prefere pensar devagar, mesmo que seja menos eficiente.
  • Ouça os outliers
    Quando investigadores de segurança e especialistas em ética dizem que estão preocupados, normalmente veem modos de falha muito antes de isso chegar ao ciclo noticioso.

Um futuro escrito por código… e pelo que toleramos

O estranho no novo plano de IA de Mark Zuckerberg é que ambas as narrativas podem ser verdade ao mesmo tempo. Ele pode acreditar genuinamente que estes sistemas vão ajudar a humanidade, enquanto também conduz a Meta para uma era em que a sua atenção, a sua voz e até as suas relações ficam mais bem empacotadas como produtos de dados do que nunca.

Os cientistas não estão unidos quanto ao nível exato de risco. Alguns temem catástrofe existencial, modelos fora de controlo, perda de domínio. Outros focam‑se em danos mais próximos: desemprego em massa em áreas criativas, propaganda acelerada, erosão da saúde mental empurrada por feeds hiperpersonalizados. O que os une é a sensação de que o seletor de velocidade ficou preso no máximo - e as pessoas que pagam o preço não foram propriamente perguntadas.

A história não acabou. Governos correm atrás de regulação. Denunciantes divulgam memorandos internos. Utilizadores acordam lentamente para o facto de que a IA “gratuita” pode ser o negócio mais caro de todos - pago em privacidade, calma e autonomia.

Os próximos anos vão mostrar se os agentes de IA da Meta nos ajudam a pensar com mais clareza, ou se aprendem silenciosamente a pensar por nós. Se protegem crianças online, ou se se tornam apenas vendedores mais suaves de conteúdo infinito. Se Zuckerberg será lembrado como o homem que colocou IA poderosa nas mãos comuns, ou como aquele que embrulhou a mente humana em mais uma interface lucrativa.

No fim, a pergunta não é apenas “O que é que ele está a fazer?” É aquilo com que estamos dispostos a viver nos nossos ecrãs todos os dias.

Ponto-chave Detalhe Valor para o leitor
Escala do plano de IA da Meta Modelos com um bilião de parâmetros integrados no Facebook, Instagram, WhatsApp e mais Ajuda-o a perceber quão profundamente isto pode moldar a vida digital do dia a dia
Porque é que os cientistas estão alarmados Sistemas abertos e poderosos misturados com incentivos orientados ao engagement e fraca supervisão Esclarece que a ameaça não são robots de ficção científica, mas manipulação e instabilidade no mundo real
A sua margem de manobra prática Questionar objetivos de otimização, procurar transparência, acrescentar “fricção” ao seu próprio uso Dá-lhe formas concretas de manter mais controlo sobre a sua atenção e os seus dados

FAQ:

  • A estratégia de IA de Mark Zuckerberg é mesmo diferente dos outros planos das Big Tech?
    Sim e não. Todos os gigantes estão a correr para construir modelos enormes de IA, mas a Meta está a apostar mais em lançamentos “abertos” e a entrelaçar IA em apps sociais com milhares de milhões de utilizadores. Essa mistura de abertura e escala é o que muitos especialistas consideram particularmente arriscado.
  • Porque é que os cientistas ficam “horrorizados” se a IA também pode fazer tanto bem?
    Porque benefícios em grande escala e danos em grande escala muitas vezes vêm dos mesmos sistemas. As ferramentas que detetam discurso de ódio ou risco suicida também podem personalizar manipulação, propaganda política ou conteúdo viciante com uma precisão assustadora.
  • A IA da Meta pode, na prática, ajudar a proteger a democracia?
    Pode ajudar a apanhar contas falsas, bots e desinformação coordenada mais depressa. Ao mesmo tempo, modelos de recomendação mais poderosos podem amplificar conteúdo polarizador. O efeito líquido depende de escolhas de design que, na maioria das vezes, não vemos.
  • O medo é a IA ficar “consciente” na Meta?
    Na verdade, não. A maioria dos investigadores foca-se em falhas como abuso, perda de controlo sobre sistemas complexos, disrupção económica e o impacto psicológico de viver dentro de feeds moldados por IA - não em máquinas conscientes a planear vingança.
  • O que posso fazer pessoalmente à medida que a Meta lança mais funcionalidades de IA?
    Verifique definições de privacidade e de IA, desligue o que não precisa e pare antes de adotar cada novo “assistente”. Pergunte o que a funcionalidade está a otimizar e considere se quer esse objetivo a orientar o seu comportamento, dia após dia.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário