Miguel S. Albergaria
Como os alunos de escolas e universidades estão a descobrir com júbilo, o recente e já famoso ChatGPT apresenta, em poucos instantes, respostas escritas a questões que lhe são apresentadas. Desde quais as causas plausíveis da I Guerra Mundial, como será possível relacionar coerentemente a mecânica quântica e a relatividade geral… até ao caso do pedido de uma mentira subtil, ao que essa aplicação da OpenAI (da Microsoft) de imediato respondeu ‘I’m a human being’.
Em alguns sítios, está a ensaiar-se a proibição da sua utilização em contexto escolar (Sciences Po, Paris) ou empresarial (JPMorgan Chase). Talvez pontualmente isso funcione. Mas, em geral, imagino que as proibições terão tanto sucesso como o nadador num rio caudaloso que, desprezando a corrente, invista as suas limitadas forças em braçadas rumo a um determinado ponto da margem a montante. Além do previsível fracasso, falha-se a preparação dos atores humanos para o tipo de interação apropriada com atores não-humanos mas ‘inteligentes’, na nova rede sociotécnica que se está a impor desde meados da última década.
A NEW ‘BRAIN’ IN TOWN
O ChatGPT, se é um portento de erudição, em muitos casos também de compreensão ou relacionamento e até de aplicação, não o é de criatividade autónoma e originária. Se não, veja-se: alguém lhe pediu elegias às virtudes de Fidel Castro e de Donald Trump, mas a resposta omitiu os presos políticos e a carência económica da população cubana, para depois se furtar por inteiro ao segundo pedido sob a justificação de que essa elegia poderia ser considerada ofensiva por algumas pessoas. O preconceito é evidente.
A heteronomia e enviesamento são óbvios em algoritmos programados – precisamente, mediante as instruções impostas na programação. Mas também ocorrem em algoritmos com capacidade de aprendizagem, como o ChatGPT. Assim, as autoridades chinesas proibiram-no, mas por lhe reconhecerem preconceitos culturais ocidentais, enquanto promovem chatbots inteligentes que sejam favoráveis aos intuitos desses decisores.
Confesso que me conto entre aqueles que sentem uma vaga mistura de pasmo e reverência ou susto ao depararmos com palavras como ‘algoritmo’, as quais estão a ganhar uma ressonância mágica ou exotérica. Todavia, essa palavra designa tão-simplesmente uma sequência de instruções para, recebendo-se dados à entrada de qualquer sistema operativo, se produzir um determinado resultado à saída. Em IA, existem diversos modelos ou famílias de algoritmos, cada qual vocacionado para certas funções ou tarefas. Ao que percebo, o ChatGPT – e os seus previsíveis rivais em preparação pela Google, Amazon, a chinesa Alibaba etc. – contam-se entre os algoritmos que se inspiram em redes neuronais.
Estes algoritmos estruturam-se em sucessivos níveis ou camadas de módulos. Entre os níveis de entrada e de saída da informação (i.e. de sinais elétricos que, em computadores, produzem traços nos ecrãs), encontram-se níveis de módulos de tratamento dessa última, ou seja, de seleção da informação a retransmitir e combinar. Em cada um destes módulos, se o estímulo elétrico recebido alcançar um determinado limiar de intensidade e/ou de frequência, é retransmitido para o módulo seguinte, caso contrário, é ignorado.
Esses sistemas de IA aprendem ao lhes serem aplicados ‘conjuntos de teste’: séries de casos-modelo com os quais os resultados obtidos pelos sistemas são confrontados, de forma que estes últimos se afinam para que a geração seguinte dos seus resultados se aproxime dos modelos que lhes são propostos. No caso de algoritmos por conexão neuronal artificial, o sistema afina-se por retropropagação. Isto é, ajusta os limiares dos seus módulos intermediários tantas vezes quantas as necessárias para que esses módulos passem informação cuja combinação se aproxime tanto quanto possível do conjunto de teste. Assim, quem determina este último controla ultimamente o que os algoritmos se ajustam a produzir.
Em suma, entre os intervenientes na rede de interações naturais, sociais e técnicas, surgiu agora um novo elemento capaz de obter alguns dos resultados até aqui exclusivos do Homo sapiens, mas, nessa classe de resultados, a um nível muitíssimo superior ao nosso. Dados os enviesamentos desse ator, ao recebermos os seus produtos deveremos utilizá-los de forma crítica.
Esta crítica, todavia, deverá incidir também no nosso próprio desenvolvimento pessoal e social, uma vez que a nossa rede sociotécnica se está a alterar pelo surgimento desse novo ator.
UMA SUGESTÃO DA TEORIA ATOR-REDE
Estou a classificar o ChatGPT como um ator sociotécnico, por referência à Teoria Ator-Rede (TAR) de Bruno Latour e Michel Callon. No seio desta teoria, ‘ator’ designa tão-somente qualquer elemento que se encontre em relação com outros – que ocupe um nó da rede – de forma que, dos comportamentos do primeiro, decorram condicionalismos dos segundos. Normalmente, o condicionamento é simétrico. Esse conceito não inclui necessariamente a chamada ‘causalidade do agente’: a capacidade deste último causar, livre e intencionalmente, a sua própria ação. Assim, na rede de uma colheita, são atores tanto o/a agricultor/a quanto a porção concreta de terra semeada, as sementes, o trator e o arado etc.
A dispensa dessa última capacidade de causação é altamente discutível. Mas, dada a aproximação de muitos resultados de sistemas como o ChatGPT aos resultados humanos, utilizemos aqui esse conceito da TAR para esclarecermos um pouco a nossa previsível relação com esta nova tecnologia.
Para isso, associemos a esse conceito os de ‘tradução’ e de ‘interesse’ (também da TAR). Os atores relevantes de uma rede têm de se ajustar para concertarem as respetivas ações no seio dessa última. Para isso, os ‘interesses’ (não necessariamente conscientes e intencionais) de cada ator numa rede são ‘traduzidos’ pelos restantes atores, que assim se apropriam ou dão um sentido à intervenção daquele primeiro ator, e podem concertar as respetivas ações com a dele.
O interesse do ChatGPT será, tão-simplesmente, reunir na incomensurável base de dados online aqueles que se possam combinar em conformidade ao pedido recebido. Já o interesse de muitos estudantes, assim o temerão os responsáveis da Sciences Po etc., será o de se fazerem substituir por aquele algoritmo.
Julgo terem razão nesse temor, ainda que talvez não no método. Pois, nesta terceira década do séc. XXI, cada um de nós parece enfrentar duas alternativas: uma, é a de desenvolvermos uma literacia sociotécnica que nos permita reconhecer os cada vez mais, mais variados e mais potentes dispositivos de IA, e desenvolvermos a capacidade de cooperar criticamente com eles. Cooperar, no sentido de contarmos com algumas decisões e obras deles. Mais já do que a mera operacionalização e utilização de ferramentas e utensílios, qual agricultor que se serve do trator e o controla em terra arável.
A outra alternativa, tudo o parece indicar, é sermos simplesmente postos fora da rede de atores relevantes. Como os até aqui meros condutores de tratores, à medida que estes se tornem autónomos. Depois, restará ver o que, nessa rede, se irá decidindo fazer em relação aos excluídos.
01abr23