No ecrã gigante atrás de Mark Zuckerberg, o avatar da demonstração piscou uma vez e, em seguida, começou a reescrever um artigo de física em tempo real. A sala no campus da Meta ficou em silêncio, salvo o silvo dos obturadores das câmaras e o murmúrio baixo de investigadores a sussurrarem: “Isto não pode estar certo.”
Zuckerberg, com a hoodie ligeiramente amarrotada, parecia mais um estudante de pós-graduação do que um bilionário enquanto falava de “um parceiro de investigação em IA para todas as pessoas na Terra”. Algumas pessoas na primeira fila sorriram. Outras franziram o sobrolho, com os olhos fixos na saída que deslizava pelo ecrã: equações reorganizadas, hipóteses afinadas, referências preenchidas automaticamente.
Alguém, lá do fundo, sussurrou o que muitos estavam a pensar: “Se isto funciona… o que sobra para nós?”
E foi nesse momento que a comunidade científica sentiu o chão mexer um pouco debaixo dos pés.
Quando uma demonstração de produto parece uma réplica científica
Zuckerberg não anunciou apenas mais um assistente falador. Revelou aquilo a que a Meta chama um “motor científico full‑stack”: uma IA capaz de ler campos inteiros de literatura, propor experiências, simular resultados e, depois, gerar rascunhos com aspeto publicável em poucas horas.
A proposta soou quase casual. Descreve-se um problema, a IA analisa milhares de artigos, encontra lacunas e devolve potenciais percursos de investigação como uma espécie de GPS intelectual. Uma neurocientista no chat da transmissão em direto escreveu: “Isto foi o meu doutoramento inteiro.”
Por um momento, os papéis inverteram-se. Cientistas a ver a partir de laboratórios em Boston, Bangalore e Berlim não eram os que estavam a dissecar um sistema. Eram os que estavam a ser dissecados.
Utilizadores com acesso antecipado, que a Meta convidou discretamente em dezembro, já tinham visto vislumbres do que esta coisa consegue fazer. Um bioinformático em Toronto deu ao modelo um conjunto de dados desarrumado sobre dobragem de proteínas; a IA limpou-o, propôs uma abordagem alternativa de modelação e assinalou uma anomalia que ele tinha ignorado durante semanas. Outro teste pôs o sistema a reanalisar dados climáticos públicos e a sugerir três lacunas de dados “de alto impacto” para futuros satélites.
Nada disto era perfeito. Alguns resultados saíam ao lado, algumas citações estavam ligeiramente erradas e, numa ocasião, o modelo “descobriu” um efeito já desmentido em 2016. Ainda assim, por cada falha, havia uma demonstração silenciosa e inquietante: uma análise decente ao nível de um aluno de doutoramento, disponível a pedido, à escala. Quase se ouvia a ansiedade da carreira académica a crepitar nos canais de Slack das universidades nessa noite.
O choque não veio apenas do poder bruto. Veio da forma como Zuckerberg o enquadrou. Isto não foi vendido como um brinquedo ou como um ajudante para programadores. Foi apresentado como infraestrutura para a descoberta.
Se essa expressão se confirmar, muda quem pode colocar perguntas científicas. Um pequeno laboratório em Lagos poderia, de repente, fazer revisões de literatura como uma instituição de topo nos EUA. Um físico isolado numa universidade de ensino poderia ter ajuda de classe mundial a desenhar simulações. Ao mesmo tempo, levantou um medo directo que ninguém queria dizer demasiado alto: quando as ferramentas de pensar são controladas por poucas plataformas, quem orienta silenciosamente que ciência se faz - e o que fica silenciosamente esquecido?
Como os cientistas estão, de facto, a usar a nova IA da Meta - e o que já está a correr mal
Dentro dos laboratórios, a primeira vaga de adoção tem sido quase embaraçosamente prática. As pessoas estão a atirar trabalho aborrecido para o modelo. “Resume estes 60 PDFs.” “Reescreve esta proposta de financiamento em inglês mais claro.” “Sugere três configurações experimentais alternativas com menor custo.”
Um pós-doc em Paris descreveu um alívio quase culpado: a IA detetou uma falha estatística no rascunho dele antes da revisão por pares. Outra investigadora usou-a para traduzir um manuscrito denso, tecnicamente correcto, para algo que um decisor político realmente pudesse ler. Não se tratava de substituir a genialidade. Tratava-se de limpar o pântano administrativo e moroso à volta da genialidade.
Depois vieram as histórias desconfortáveis. Uma jovem doutoranda em Tóquio pediu à IA “dez ângulos negligenciados sobre biomarcadores de Alzheimer”. As ideias devolvidas eram frescas, plausíveis e rápidas. Demasiado rápidas. Uma semana depois, ela viu ideias quase idênticas a aparecer num preprint escrito por outro laboratório, noutro continente, a usar as mesmas ferramentas de IA.
Já todos passámos por aquele momento em que percebemos que a nossa “ideia original” não era assim tão original. Só que, desta vez, a semelhança não vinha de pensamento de grupo numa área. Vinha de milhares de cientistas a apoiarem-se discretamente no mesmo cérebro estatístico na nuvem. Equipas diferentes, o mesmo algoritmo, a convergir de forma estranhamente sincronizada para as mesmas linhas “inovadoras” de investigação.
Um número crescente de investigadores seniores começa a dizer em voz alta a parte silenciosa: se toda a gente usar o mesmo assistente de IA, a ciência arrisca tornar-se estranhamente homogénea. Esse receio está a colidir com outra preocupação - a confiança. O modelo é treinado sobretudo em literatura existente, e essa literatura já está enviesada para instituições ricas, revistas em língua inglesa e temas populares que recebem financiamento.
Assim, a IA é brilhante a encontrar padrões dentro do conhecimento de ontem, mas desajeitada com ideias verdadeiramente ousadas que não se encaixam bem nos seus dados de treino. Como disse um astrofísico: “É como colocar um turbocompressor nos nossos enviesamentos actuais.” Sejamos honestos: ninguém reescreve toda a metodologia só porque um chatbot o sugeriu.
O que os cientistas podem fazer agora: co‑piloto, não subcontratar
Nos laboratórios onde o pânico arrefeceu e deu lugar a algo mais prático, está a emergir uma nova norma: tratar a IA da Meta como um co‑piloto, não como um ghostwriter. Algumas equipas traçaram literalmente uma linha no quadro branco. De um lado: tarefas em que a IA pode tocar - resumos de literatura, código de primeira passagem, formulações alternativas, brainstorming de hipóteses. Do outro: áreas a vermelho - interpretações finais, desenho experimental central, juízos éticos.
Uma bióloga molecular em São Paulo descreveu um hábito simples. Sempre que a IA sugere um novo ângulo, ela anota-o, fecha o portátil e pergunta a si própria: “Esta ideia impressionar-me-ia se tivesse sido dita por um pós-doc humano?” Se a resposta for não, vai para o lixo. Se for sim, ainda assim tem de sobreviver ao crivo habitual de perguntas e discussões do laboratório.
O maior erro que os cientistas confessam discretamente é confiar demais na primeira semana. Aquele pico de produtividade é intoxicante. Os rascunhos voam, o código corre, as referências aparecem como por magia. Depois, uma semana mais tarde, alguém encontra uma citação inventada, ou uma suposição errada escorregada para a secção de métodos, e o ambiente endurece.
Os laboratórios que lidam melhor com isto são os que falam abertamente sobre o choque emocional. Aceitam que a curiosidade e o medo vêm no mesmo pacote. Escrevem protocolos de uso de IA não como avisos legais, mas como documentos vivos: para que a vão usar, para que não vão, e como os juniores podem dizer “isto parece errado” sem serem atropelados por um PI sénior que só quer um artigo mais rápido.
Um químico sénior disse-o sem rodeios durante uma reunião de departamento acesa:
“Se deixarmos um modelo comercial moldar silenciosamente o que investigamos, já não estamos a fazer ciência. Estamos a fazer subcontratação de I&D para uma plataforma.”
Dessas reuniões, algumas regras práticas começam a espalhar-se, quase como uma caixa de ferramentas partilhada e informal:
- Usar IA para trabalho de base (resumos, formatação, texto padrão), não para conclusões finais
- Divulgar a assistência de IA em métodos ou agradecimentos quando influencia um artigo
- Verificar duas vezes todas as citações que o sistema gera
- Fazer sessões de brainstorming “sem IA” antes de pedir ideias ao modelo
- Ensinar estudantes de doutoramento a leitura crítica da saída da IA, não apenas a escrever prompts
Nada disto resolve as grandes questões estruturais sobre poder e controlo. Mas dá aos cientistas individuais uma forma de manter as mãos no volante, mesmo quando o motor fica sobrealimentado.
A falha geológica que acabou de abrir sob a ciência global
O anúncio de Zuckerberg não transformou subitamente a Meta no laboratório central do mundo. O que fez foi lançar um sinal luminoso alto no céu, iluminando uma linha de fratura que vem a crescer silenciosamente há anos: quem detém as ferramentas que moldam o que saberemos a seguir.
Alguns investigadores já imaginam um futuro dividido. De um lado, instituições bem financiadas a usar modelos proprietários afinados para as suas áreas, a deslizar pelo trabalho administrativo e a produzir artigos a uma velocidade recorde. Do outro, laboratórios mais pequenos e países presos a sistemas mais lentos e menos ajustados, sempre a correr atrás do prejuízo. E, noutro lado ainda, comunidades open‑source a correr para construir alternativas públicas e transparentes antes que a distância se torne permanente.
Quanto mais se fala com cientistas sobre o movimento da Meta, menos a conversa é sobre Mark Zuckerberg e mais é sobre controlo. Controlo sobre dados. Sobre o que é optimizado. Sobre quais perguntas são consideradas “merecedoras” do cálculo computacional. Ninguém acredita que um anúncio de IA, por si só, decida o futuro da descoberta. Mas muitos admitem, em privado, que isto parece um ponto de viragem na forma como a investigação é feita, financiada e avaliada.
Se as ferramentas que sustentam o nosso pensamento forem caixas negras, afinadas para lucro e engagement, o risco não é apenas haver más citações ou métodos descuidados. O risco é uma geração de ciência que parece rigorosa à superfície, mas que está subtilmente dobrada em torno do que alguns sistemas conseguem ver e recompensar. A próxima década de políticas, financiamento e cultura de laboratório de base decidirá se este choque se torna um renascimento - ou um estreitamento lento e polido da curiosidade humana.
| Ponto-chave | Detalhe | Valor para o leitor |
|---|---|---|
| Mentalidade de co‑piloto | Usar IA para tarefas de apoio, manter humanos no juízo científico central | Ajuda a ganhar velocidade sem abdicar da sua competência |
| Regras partilhadas | Políticas ao nível do laboratório sobre divulgação, verificação e limites | Reduz o risco de erros e pontos cegos éticos no seu trabalho |
| Consciência de poder | Reconhecer como as plataformas moldam que perguntas são feitas | Protege a sua independência e a agenda de investigação a longo prazo |
FAQ:
- Pergunta 1 A nova IA da Meta é realmente capaz de substituir cientistas?
- Pergunta 2 Como pode um pequeno laboratório beneficiar sem perder o controlo do seu trabalho?
- Pergunta 3 Quais são os principais riscos para investigadores em início de carreira?
- Pergunta 4 O uso de IA deve ser divulgado em artigos científicos?
- Pergunta 5 Existem alternativas a depender de modelos de Big Tech para investigação?
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário