No final de fevereiro, o Pentágono pressionou a Anthropic a retirar restrições éticas do seu sistema para uso militar, a empresa recusou, e a OpenAI ocupou parte desse espaço, mostrando que a discussão sobre inteligência artificial já não é apenas técnica: é uma disputa sobre poder, limites e obediência. O episódio foi lido como mais uma guerra entre empresas tecnológicas e o aparelho militar americano.
Mas é mais do que isso.
É um espelho.
A pergunta que aparece de forma brutal é a mesma que começa a entrar, mais discretamente, nas nossas escolas (e vidas): quem manda na IA?
Quem define o que ela pode fazer, o que deve recusar, o que prioriza, o que omite e os valores que transporta?
A empresa que a construiu?
O Estado que a quer usar?
O mercado que a financia?
Ou os cidadãos que vivem com as suas consequências?
Em Portugal, ainda discutimos a inteligência artificial como se o essencial fosse saber se ela ajuda a resumir Os Maias (que, na minha opinião, nunca deve ser resumido!), a fazer trabalhos de casa ou a detetar plágio mais depressa.
Essas questões existem, mas são pequenas quando comparadas com a questão central.
O problema não é apenas o que a IA faz por nós.
É quem decide o que ela faz sobre nós.
O mesmo sistema que pode apoiar um professor a planificar uma aula ou um aluno a estudar matemática também pode ser ajustado para fins de vigilância, controlo, seleção e dependência cognitiva.
A tecnologia não muda de natureza por entrar na escola. Muda apenas de cenário.
E, quando muda de cenário, tende a ganhar uma aparência inocente que a torna ainda mais difícil de questionar.
Também os media têm falhado neste ponto.
Oscilam entre o entusiasmo fácil e o alarmismo superficial, mas raramente ajudam o público a perceber quem treina estes sistemas, quem os financia, que interesses os atravessam e como as suas escolhas chegam ao quotidiano de professores e alunos.
Quando o debate público se reduz à utilidade imediata ou à batota escolar, perdemos de vista a dimensão política da tecnologia.
Os professores não podem ser reduzidos a gestores de plágio algorítmico.
Têm de ser mediadores de pensamento crítico numa cultura onde as máquinas respondem cada vez melhor e explicam cada vez menos.
E a escola não pode limitar-se a ensinar a usar IA.
Tem de ensinar a interrogá-la.
Precisamos, por isso, de mais do que regulamentação e entusiasmo modernizador.
Precisamos de literacia tecnológica, ética e mediática.
Porque a diferença entre a IA que educa e a IA que mata não está apenas na função.
Está, antes de tudo, em quem manda nela.