ONLINE/OFFLINE


PARA A BIBLIOTECA PENSAR NA SUA “TECNOINOVAÇÃO” OLHAR A IA.

Em recente evento da área, onde se abordou inteligência artificial, a principal questão levantada versou sobre como capacitar bibliotecários no domínio da IA. Não se explorou os motivos de se capacitar e, nem ficou claro, os custos e bônus envolvidos nesta capacitação. Tão pouco se refletiu sobre o que se pretende com IA.

Na busca de outros olhares sobre o tema, enquanto um recurso colocado como a nova fronteira do desenvolvimento humano, deparou-se com o artigo de Charles M. Johnston (psiquiatra e futurista; criador da teoria dos sistemas criativos e diretor do Institute for Creative Development, um centro de pesquisas e de treinamento em liderança). No artigo, publicado pelo openDemocracy, é apresentada uma abordagem que serve para orientar a adesão de uma tecnologia, baseada em olhar atento e crítico, e suportada em valores humanos. 

Afinal, valores humanos são a essência da missão do trabalho bibliotecário orientado para inclusão e desenvolvimento humano por meio da democratização do acesso à informação.

Em seu texto, Johnston inicia com destaque ao físico Stephen Hawking, que anos atrás, propôs que o pleno desenvolvimento da IA poderia significar o fim da raça humana, ao refletir nossa espécie e, até mesmo, competindo com ela, por meio de algoritmos que além de se auto-reproduzirem, gerariam novidades e selecionariam as vantajosas.

Na atualidade, a inovação tecnológica transforma os principais aspectos de nossas vidas. A questão realçada é, em que direção? Todas as invenções têm custos, benefícios e consequências não intencionais. As intenções, porém, decorrem do uso que se faça delas.

Assim, para usar a tecnologia com sabedoria, há que se aceitar a realidade dos limites, reconhecer que toda questão é, em última instância, uma questão moral e de valor, não apenas de eficiência tecnológica. É preciso aprender a combinar as diferentes facetas de nossa inteligência sob novas maneiras.

Neste intento, necessita-se de muito mais “maturidade cultural” e que propicie um "crescimento" fundamental como espécie. Uma característica distintiva dos seres humanos é a sua capacidade como fabricantes de ferramentas, entretanto, tratamos nossas ferramentas, em especial as novas ferramentas digitais - como verdades, se não deuses. 

Esta forma de pensar e tratar não pode persistir. O futuro requer maior capacidade de retroceder e considerar as consequências das criações humanas. Pois, se não por outro motivo, somos capazes de causar tanto um grande dano, quanto um grande bem.

Tome-se, por exemplo, o vício crescente por dispositivos eletrônicos e os perigos consequentes que podem superar outros relacionados aos alimentos ou as drogas. Esses dispositivos fazem coisas consideradas úteis e divertidas. Exemplo óbvio são os videogames, onde tiros e explosões criam uma empolgação repetitiva. Substitutos artificiais para a realização real. Os estímulos obtidos nos dispositivos eletrônicos é um fenômeno frequente, constatado em mídias sociais.

Neste sentido, torna-se fácil utilizar a realidade virtual para confundir ou enganar, assim como as "notícias falsas" (fakes news), que mentem e/ou distorcem as informações. 

As “realidades falsas” têm até mais potencial de uso para demagogia e manipulação. A estimulação artificial em nome do significado - como na realidade virtual ou no videogame - traduz-se em “drogas projetistas” digitais cada vez mais sofisticadas, que são imensamente lucrativas.

Estas dinâmicas também estão presentes na forma de nos relacionamos com os celulares. Relação decorrente do fato de os celulares se tornarem parte da vida de quase todos e, noutro aspecto, devido às recompensas comerciais que vêm com a capacidade das empresas de telefonia de controlar nossa atenção.

Significativo reconhecer que o que vemos não é um produto de utilidade desses dispositivos. Existem razões químicas específicas pelas quais as pessoas sentem necessidade de verificar seus celulares a cada minuto. 

Um dos segredos, no mundo da tecnologia, é que os desenvolvedores projetam softwares para serem viciantes. Constroem recompensas que tornam a visita ao site favorito uma espécie de “slot machine”. Nos fazem sentir ansiedade se estivermos longe de nossos dispositivos por qualquer período. Isso apesar da maior parte do conteúdo ser direcionado à publicidade. Significa que as metodologias viciantes ficarão mais sofisticadas no futuro.

Essas preocupações se amplificam pelo que Charles Johnston chama de "crise de propósito". Como as crenças culturais tradicionais param de fornecer orientação essencial, podemos ficar à deriva e sozinhos. Isso pode nos tornar vulneráveis diante das tecnologias, gerando um alto preço (tanto individual, quanto espécie), quando confundimos pseudo-significância aditiva com significado real, aspecto que diminui quem somos e mina as possibilidades futuras. 

O antídoto está em perguntar, com profundidade e coragem, o que é mais importante para nós. Ser distraído e viciado prejudica a capacidade de assumir essa tarefa reflexiva essencial.

A Internet prometeu uma nova democratização da informação e muitas vezes forneceu apenas isso. Mas, se não atentarmos, ao invés de liberdade e de produzir-se uma comunicação mais democrática, a revolução da informação poderá minar o experimento democrático - e mesmo colocar em risco a maior experiência humana. 

Em seu romance distópico de 1984, George Orwell alertou sobre o fato de o Big Brother assumir o controle das mentes humanas. O perigo real, no futuro, não é a manipulação do governo, mas a estimulação artificial disfarçada de substâncias na qual a informação seja usada para nos desconectar das questões de real importância.

Neste sentido, o termo "Inteligência Artificial" é um equívoco, se comparado à variedade humana, o termo é muito mais limitado. Alguns computadores podem até ter passado pelo famoso “Teste de Turing”. Teste esse que diz que a Inteligência Artificial seria alcançada se uma máquina responder às suas perguntas e você não pode dizer que é uma máquina. 

Ocorre que o Teste de Turing é uma ciência falha. Imagine um carro esportivo, vermelho brilhante, de brinquedo, feito de doce que alguém puxa junto com uma corda invisível. De longe, não se pode dizer que não é real. Esse brinquedo pode ser divertido e útil para muitas coisas, até mesmo coisas incríveis. Entretanto, tais aspectos não fazem disso um carro. Assim como um computador não se torna humano por imitar a maneira como processamos informações.

Gerenciar IA depende de como faze-la inteligência viva, em especial uma inteligência humana, que é diferente. A inteligência humana, com sua complexidade incluída, não é apenas criativa, mas inerentemente moral. Diferentes códigos morais seguem a partir do funcionamento da inteligência humana, incluindo nossa capacidade de processamento racional. Mas essa dinâmica se desfaz quando a inteligência se tornar cada vez mais mecânica e, portanto, vulnerável à exploração.

A maneira de evitar que a Inteligência Artificial se torne nossa ruína é gerenciá-la com maturidade cultural, de modo que nos tornemos ainda mais capazes de nos conscientizar da nossa complexidade cognitiva, bem como de retroceder e apreciar nossas ferramentas como ferramentas. Aspecto a ajudar na descoberta de novas habilidades e competências que nos auxiliem a utilizar as ferramentas de maneira a melhorar nossa existência.

Por outro lado, os atuais níveis de entusiasmo tecnológico por vezes extrapolam, a ponto de se tornarem literalmente religiosos. Neste aspecto, as afirmações tecno-utópicas do futurista Ray Kurzweil de estarmos nos aproximando de um ponto da história - por ele chamado "singularidade" - quando a IA ultrapassa a variedade humana. 

Kurzweil propõe que toda uma nova forma de existência resultará, em uma que transcenda não apenas nossa biologia, mas também nossa mortalidade. Ele descreve o download digital de nosso conteúdo neurológico e, assim, a obtenção da vida eterna - que ele espera poder realizar com sua própria vida.

Não há dúvida de que as tecnologias do futuro afetarão a maneira de pensamos sobre nós mesmos. Mas é importante compreender que, embora o pensamento tecnoutópico moderno seja apresentado como radical em sua novidade, não é novo em nenhum sentido fundamental. Em vez disso, reflete uma expressão máxima da história heroica, progressista e ascendente da Idade Moderna.

Pode-se também amarrar o pensamento tecnoutópico a impulsos ainda mais antigos: o desejo, por exemplo, de eliminar polaridades entre o corpo e a mente, o inconsciente em favor de uma consciência onisciente (mesmo que desprovida de conhecimento humano real); a realidade da morte em favor de uma imortalidade digital, agora triunfante. Mas longe de ser novo nos nossos tempos, esses esforços para eliminar o corpo, o inconsciente e a morte têm sido comuns às crenças utópicas há milhares de anos. 

Em vez de sucumbir a essas fantasias tecnopatológicas, nosso futuro depende de apreciar tanto as possibilidades quanto as limitações decorrentes da invenção, e assumir a responsabilidade de pensar e agir sobre esses custos e benefícios de maneiras mais maduras. 

Essa será a chave para realizar boas escolhas sobre questões como a mudança climática, evitar catástrofe nuclear, garantir ar e água pura, e alimentos saudáveis para as pessoas, retardar a taxa crescente de extinção de espécies e enfrentar a desigualdade.

Nenhuma dessas questões possui correção tecnológica conveniente. O fato da nova invenção é excitante, e as invenções ainda por virem são importantes para nossa contemplação. Porém, mais importante é a necessidade de desenvolver novas formas de pensar sobre nós mesmos, e de encontrar os relacionamentos corretos com as tecnologias criadas.

Com estas coisas no devido lugar, as nossas relações com as invenções mudam fundamentalmente. Momento que começamos a ver mais claramente que os dispositivos eletrônicos devem servir ao que os seres humanos têm em seu melhor; e que máquinas não são: moral, criativa e amorosamente, capazes de serem não apenas inteligente, mas também sábias. 

Assim não se deve confiar cegamente em algoritmos porque eles erram, e erram pela nossa relutância em questionar o poder de uma máquina apoiada em algoritmo de péssima qualidade, que toma decisões que podem afetar vidas. Segundo Hannah Fry (professora de matemática da University College London), o problema inerente dos algoritmos é amplificado quando seu uso se combina à tendência humana de aceitar uma autoridade artificial. E esse é o ponto de equivoco: pensar em algoritmo como autoridade.

Esse é o ponto em que está a bifurcação crítica na estrada. Nossas ferramentas podem nos libertar ou nos substituir, dependendo de como as entendemos - e de como nos entendemos.

No caso do trabalho bibliotecário, as ferramentas tecnológicas podem ajudar a ampliar horizontes, ou nos substituir como melhor alternativa ao que fazemos operacionalmente. 

A opção dependerá de como entendemos nosso trabalho e de como nos entendemos enquanto profissionais da informação e como entendemos e exploramos os algoritmos de IA.

Indicação de leitura:

Johnston, C. M. Techno-brilliance or techno-stupidity? Opendemocracy, 5 nov. 2017. Disponível em: https://goo.gl/jucNbF 

Fray, H. Não acredite cegamente em algoritmo porque até eles erram. Jornal Folha de São Paulo, 11 set. 2018. Disponível em: https://goo.gl/yE8HnW


   1267 Leituras


Saiba Mais





Próximo Ítem

author image
INOVAÇÃO DA IA EM BENEFÍCIO DA INTELIGÊNCIA BIBLIOTECÁRIA
Outubro/2018

Ítem Anterior

author image
RANGANATHAN E OS PRINCÍPIOS DE CATALOGAÇÃO DE PARIS, 1961: PARTE 2 DE 2
Agosto/2018



author image
FERNANDO MODESTO

Bibliotecário e Mestre pela PUC-Campinas, Doutor em Comunicações pela ECA/USP e Professor do departamento de Biblioteconomia e Documentação da ECA/USP.