Pesquisas mostram que inteligência do ser humano está regredindo; tempo desperdiçado nas redes sociais é principal motivo
Em sólidos levantamentos, descobriu-se algo constrangedor para a civilização: pela primeira vez, os filhos passaram a ter mentes menos 'afiadas' do que a de seus pais.
Objeto de análise desde os primórdios da civilização, a inteligência humana é um mistério tão intrigante quanto a origem do universo. No livro A Fábrica de Cretinos Digitais, que acaba de ser lançado no Brasil, o renomado neurocientista francês Michel Desmurget, diretor de pesquisas do Instituto Nacional de Saúde da França, aponta as baterias de combate ao estado atual de estagnação intelectual para o que afirma ser sua maior causa: o excesso de tempo passado diante da tela dos mais variados aparelhos digitais.
“A tela, em si, não representa um mal, mas o número de horas despendidas na sua frente é assustador”, ressaltou Desmurget à Revista Veja. “O uso de computadores e celulares por pré-adolescentes é três vezes maior para se divertir do que para fazer trabalhos escolares. No caso dos adolescentes, o número sobe para oito”.
No trecho em que se debruça sobre o desenvolvimento de crianças pequenas, o especialista adverte que internet e aplicativos de redes sociais em demasia afetam negativamente as interações, a linguagem e a concentração, os três pilares básicos do progresso cognitivo em qualquer idade, mas de excepcional importância nos cinco primeiros anos da existência. É justamente nesse período-chave que se observa o auge da plasticidade — nome dado à frenética formação de sinapses que nunca mais se repetirá e que resulta na evolução ultra-acelerada do potencial do cérebro.
A revista Veja em sua publicação ressalta que, colocada dessa maneira, parece que a tecnologia é um mal. Longe disso. O foguete do progresso tecnológico transportou a humanidade para um novo patamar de conhecimento, criatividade, bem-estar e longevidade, com nítidos e incontáveis benefícios em todas as áreas — inclusive no estudo da inteligência. O ruim é o exagero.
Esse ramo da ciência, de aferição cognitiva, ganhou impulso no século XIX, quando o antropólogo inglês Francis Galton (1822-1911) esmiuçou a teoria da evolução formulada por seu primo, Charles Darwin (1809-1882). Galton concluiu que a inteligência é uma característica hereditária e desenvolveu, em 1884, o primeiro método de medida do intelecto humano — um conjunto rudimentar de testes físicos e psicológicos.
QI
Três décadas depois, foi a vez de o psicólogo alemão Wilhelm Stern elaborar o quociente de inteligência, só que em uma fórmula muito complexa. Coube a Lewis Terman, especialista em psicologia educacional da Universidade Stanford, simplificar o teste e popularizar a sigla Q.I. Foi Terman quem sedimentou o padrão médio de Q.I. no número 100, criando a escala Stanford-Binet, usada até hoje.
À medida que a ciência evolui, escorada pelos avanços da computação, o componente hereditário da inteligência identificado por Galton vai ganhando a companhia de outros fatores. Em pesquisa publicada em 1984, o educador americano James Flynn (1934-2020), tomando por base o avanço constante do Q.I. médio nos países mais prósperos — que atingiu seu ápice na década de 1970, com altas anuais de três pontos —, demonstrou que as melhorias alcançadas na medicina, na educação e no pensamento crítico haviam contribuído decisivamente para tornar a população mais inteligente, um fenômeno que ganhou o nome de “efeito Flynn”.
Problema: passado o apogeu, as conquistas no Q.I. foram sendo cada vez menores até estacionarem e, na entrada do século XXI, começarem a deslizar ladeira abaixo, devagar e sempre, acendendo o sinal amarelo. E a trajetória segue em queda na capacidade cognitiva.
Acompanhe todas as notícias sobre o novo coronavírus.
Acompanhe nossas transmissões ao vivo e conteúdos exclusivos no www.aratuon.com.br/aovivo. Nos mande uma mensagem pelo WhatsApp: (71) 99986-0003.