13 de maio de 2024
Singularidade tecnológica e transumanismo
Na literatura científica, é geralmente aceito que existem 3 níveis de inteligência artificial (IA): IA estreita ou fraca, IA geral ou forte e superinteligência artificial.
Inteligência Artificial Fraca
A inteligência artificial fraca (ANI) é o único tipo de inteligência artificial que conseguimos até hoje. A IA fraca está orientada a objetivos, projetada para realizar tarefas específicas como:
- Reconhecimento facial
- Reconhecimento de voz/assistentes de voz
- Conduzir um automóvel
- Fazer sugestões de compra
Trata-se de modelos estatísticos que fazem previsões ou prescrições em contextos específicos para os quais foram treinados a partir de um conjunto de dados inicial. É muito eficiente para completar a tarefa específica para a qual está programada. De qualquer forma, a ANI tem experimentado avanços muito importantes nos últimos anos, graças ao aprendizado profundo e às redes neurais. Por exemplo, os sistemas de IA que são utilizados na medicina para diagnosticar câncer e outras doenças. Além disso, tem ganhado em ubiquidade e sua presença é cada vez mais generalizada na vida diária dos cidadãos, impulsionada pela popularidade dos assistentes de voz em casa e funcionalidades incluídas em qualquer um dos nossos smartphones, como o reconhecimento facial em aplicativos de fotos.
Em nível empresarial, o uso inteligente dos dados é uma realidade através da sensorização de fábricas que permitem a prescrição de tarefas ou a manutenção preditiva, ou a acumulação de dados dos usuários que permite gerar produtos e serviços totalmente personalizados.
Inteligência Artificial Forte
O próximo nível é a inteligência artificial forte (AGI), também conhecida como inteligência artificial geral. É a inteligência artificial que iguala ou excede a inteligência humana, ou seja, a inteligência de uma máquina que pode realizar com sucesso qualquer tarefa intelectual de qualquer ser humano. Até o momento, a inteligência artificial forte se mantém como uma aspiração, é hipotética, apesar dos grandes avanços no campo e da melhoria dos modelos de machine learning.
Superinteligência Artificial
Finalmente, a Superinteligência Artificial (ASI) se refere a uma inteligência muito acima das mentes humanas mais dotadas. Está relacionada com o que é conhecido como “singularidade tecnológica”.
O que é a singularidade tecnológica?
A singularidade tecnológica prevê que, no futuro, a tecnologia desenvolverá máquinas que superarão a inteligência humana, marcando um antes e um depois na história da humanidade. Isso levará ao que o filósofo de Oxford, Nick Bostrom, chama de “explosão de inteligência”: as máquinas se melhorarão de forma recorrente. Assim, cada nova geração, sendo mais inteligente, será capaz de melhorar sua própria inteligência, dando lugar a outra nova geração ainda mais inteligente, e assim sucessivamente. A singularidade tecnológica ocasionará mudanças sociais inimagináveis, impossíveis de compreender ou de prever por qualquer humano.
Os especialistas divergem em suas previsões sobre quando isso acontecerá. O pesquisador Gary Marcus afirma que:
«Praticamente todo mundo no campo da IA acredita que as máquinas algum dia superarão os humanos e, em certo nível, a única diferença real entre os entusiastas e os céticos é um prazo».
Na Cúpula da Singularidade de 2012, Stuart Armstrong fez um estudo sobre as previsões dos especialistas e encontrou uma ampla gama de datas previstas, com um valor médio de 2040. Em declarações de Armstrong em 2012:
«Não é completamente formal, mas minha estimativa atual de 80% é algo como de cinco a 100 anos».
Preparando-se para a singularidade tecnológica
O que acontecerá após a singularidade é uma incógnita para a mente humana. Uma inteligência artificial suficientemente potente seria capaz de realizar mudanças em escala global que não podemos prever, por razões que não seríamos capazes de discernir. Não significa necessariamente um futuro distópico para os humanos nem que vamos nos extinguir. Tampouco no outro extremo, não podemos esperar que as máquinas realizem todos os trabalhos e que os humanos vivam em férias permanentes. Simplesmente, não sabemos o que acontecerá porque está fora do alcance de nossa inteligência.
Que não saibamos o que acontecerá não significa que não devamos nos preparar. Os esforços regulatórios que atualmente abordam temas como a transparência do código, a explicabilidade das decisões da IA, o viés dos dados de treinamento, ou os riscos dos usos bélicos da IA, sem dúvida são necessários e serão muito importantes no primeiro nível da IA (ANI). No entanto, existem dúvidas razoáveis por parte dos especialistas sobre sua aplicabilidade quando chegarmos à singularidade tecnológica. Como seremos capazes de aplicar normas a esse tipo de inteligências tão superiores?
Humanidade aumentada ou Transumanismo
Uma das abordagens mais interessantes baseia-se na melhoria do ser humano (humanidade aumentada ou transumanismo) para não perder a corrida da inteligência frente às máquinas.
Para o historiador Yuval Noah Harari, o caminho de evolução mais provável é precisamente que o ser humano evolua em paralelo às máquinas. Ele diz isso em seu ensaio “Homo Deus”:
“Homo sapiens não será exterminado por uma revolta de robôs. É mais provável que Homo sapiens melhore a si mesmo passo a passo, e que se una a robôs e computadores no processo, até que nossos descendentes olhem para trás e percebam que já não são o tipo de animal que escreveu a Bíblia”.
De fato, já existem atualmente vários projetos nessa linha. Por exemplo, Neuralink de Elon Musk: sua visão é desenvolver interfaces cérebro-máquina (BCI: brain computer interfaces) para conectar humanos e computadores para sobreviver à próxima era da IA. A missão da Neuralink é clara: "se não pode vencê-los, junte-se a eles". Ou seja, nossa única forma de ter uma chance quando a IA superinteligente chegar é nos fundirmos com a IA.
Conclusões
Em nível pessoal, tudo o que podemos fazer é nos preparar mentalmente e estar abertos a uma mudança que, segundo os especialistas, pode acontecer em vida.
Para terminar, Harari dizia:
“Os neandertais não precisavam se preocupar com o Nasdaq porque estavam protegidos dele por um escudo de dezenas de milhares de anos. No entanto (..) é provável que a tentativa de melhorar o Homo sapiens mude o mundo até torná-lo irreconhecível já neste século.” E continua: “Em retrospectiva, muitos acreditam que a queda dos faraós foi um acontecimento positivo. Talvez o colapso do humanismo também seja benéfico. Em geral, as pessoas temem a mudança porque temem o desconhecido. Mas a única e maior constante da história é que tudo muda.”
Na SEIDOR ajudamos as empresas em seu caminho para a transformação digital, se precisar de consultoria na adoção da Inteligência Artificial, entre em contato conosco!
Share
Quiz talvez te interesse
O desafio tecnológico da transição para as energias renováveis
Explore como a tecnologia está impulsionando a transição para as energias renováveis e a sustentabilidade ambiental. Descubra projetos inovadores na Espanha que utilizam IoT, inteligência artificial e Big Data para criar um futuro mais limpo e eficiente.