Inteligência Artificial Geral: História e Desafios

1: Inteligência Artificial Geral (AGI) – Por que isso importa?

1.1 A Inteligência como Enigma Multidisciplinar

A saga humana para compreender a inteligência atravessa épocas e disciplinas. Na Grécia Antiga, Platão via a razão como uma chave para transcender as ilusões do mundo sensível (Mito da Caverna), enquanto Aristóteles associava a inteligência à capacidade de categorizar o mundo (Organon). No século XVII, Descartes reduziu a mente a um “fantasma na máquina“, separando-a radicalmente do corpo. Mas foi Darwin quem trouxe a inteligência de volta à Terra, mostrando que ela não é um dom transcendental, mas sim um produto da evolução (On the Origin of Species, 1859).

Hoje, a neurociência descreve a inteligência como um fenômeno emergente de redes neurais complexas (Kandel, 2000), enquanto a filosofia da mente debate se a consciência pode ser reduzida a processos físicos (Chalmers, 1995). Essa discussão é crucial porque AGI depende de como definimos inteligência. Se a entendemos apenas como processamento de informação, sistemas como o GPT-4.x podem ser considerados “inteligentes”. No entanto, se a inteligência envolve compreensão, intencionalidade e criatividade contextual, estamos longe de alcançar AGI (do inglês Artificial General Intelligence).

Mas por que isso importa para AGI? Porque replicar inteligência em máquinas exige entender o que ela é, e também como ela funciona. Isso nos leva a perguntas fundamentais: O que é aprender? Como surgem ideias novas? E o que significa “entender” algo? Responder a essas questões é essencial para projetar sistemas que possam pensar como humanos, e não apenas imitar comportamentos específicos.

1.2 Bases Biológicas: Lições do Cérebro Humano

O cérebro (humano) é uma máquina (hummm… metáfora errada: é uma rede!) extraordinária, dinâmica e hierárquica. A plasticidade sináptica permite que conexões se reforcem ou enfraqueçam com a experiência (Bliss & Lomo, 1973), enquanto a neurogênese adulta (Eriksson et al., 1998) desafia a ideia de que cérebros maduros são estáticos. Projetos como o Blue Brain (Markram, 2006), que tentam simular cérebros em silício, enfrentam críticas por ignorar fatores como a influência glial (Allen & Barres, 2009) ou a dimensão química da cognição.

Por exemplo, em 2015, Blue Brain simulou uma coluna cortical de rato com 31.000 neurônios e 37 milhões de sinapses. Apesar da fidelidade anatômica, a simulação não reproduziu comportamentos emergentes como aprendizagem — um lembrete de que AGI exige mais do que mapear estruturas. Para replicar a inteligência humana, precisamos entender não apenas as conexões cerebrais, mas como elas interagem com o ambiente e geram significado.

1.3 Modelos Cognitivos: Do Raciocínio à Intuição

A psicologia cognitiva tradicionalmente classifica a inteligência humana em dois sistemas principais (Kahneman, 2011):

  • Sistema 1: Rápido, automático, intuitivo e frequentemente inconsciente (por exemplo, reconhecer rostos ou interpretar emoções rapidamente).
  • Sistema 2: Lento, deliberativo e analítico, exigindo esforço consciente para resolução de problemas complexos (como solucionar equações matemáticas ou planejar estratégias detalhadas).

Durante décadas, IA tradicional privilegiou abordagens baseadas no Sistema 2, empregando algoritmos de busca lógica, planejamento simbólico e inferência explícita. Por outro lado, avanços recentes em redes neurais profundas têm focado sobretudo no Sistema 1, com técnicas de aprendizado estatístico e reconhecimento automático de padrões a partir de grandes volumes de dados.

Entretanto, como alerta Hubert Dreyfus (1972), ambos são insuficientes isoladamente. A inteligência humana autêntica dependeria do know-how corporificado, ou seja, das habilidades adquiridas através da interação direta, sensorial e física com o ambiente. Essa capacidade vai além de algoritmos abstratos ou da mera identificação de padrões estatísticos, exigindo uma integração profunda de percepção, ação e contexto social.

Para atingir uma verdadeira AGI seria essencial construir sistemas híbridos que não apenas combinem o rápido reconhecimento intuitivo (Sistema 1) com a capacidade analítica profunda (Sistema 2), mas também incorporem uma dimensão adicional de meta-aprendizado. Este hipotético “Sistema 3” permitiria que AGI realizasse tarefas específicas e continuamente adaptasse suas próprias estratégias cognitivas, aprendendo a aprender e transformando-se diante de novos contextos ou desafios inéditos.

A integração dessas dimensões cognitivas constitui um dos desafios centrais no desenvolvimento da AGI, representando simultaneamente uma fronteira científica fascinante e um dos maiores obstáculos técnicos e filosóficos atuais.

1.4 Relevância Ética e Existencial

AGI não é apenas um desafio técnico, mas ético. Nick Bostrom (2014) alerta sobre o problema do alinhamento : como garantir que uma AGI superinteligente compartilhe valores humanos? Já Joy Buolamwini (2018) demonstra que sistemas atuais perpetuam vieses (ex.: reconhecimento facial com menor precisão em rostos negros), levantando questões sobre justiça e responsabilidade.

Em 2023, um modelo de linguagem gerou discursos de ódio ao ser treinado em fóruns online (Sheng et al., 2023) — um aviso de que AGI mal alinhada poderia amplificar riscos sociais. Isso destaca a importância de ética e transparência no desenvolvimento de sistemas inteligentes.

1.5 Por que AGI é Relevante Hoje?

  1. Competição Geopolítica: EUA, China e UE investem bilhões em AGI, visando vantagem estratégica (Carchidi, 2024).
  2. Mudanças no Mercado de Trabalho: Automação generalizada exigirá redefinir economias (Frey & Osborne, 2017).
  3. Sobrevivência da Espécie: AGI poderia resolver crises como mudanças climáticas (via modelagem complexa) ou criar novas ameaças (armas autônomas).

Esses exemplos mostram que AGI não é apenas uma questão tecnológica, mas também social, política e existencial. Ela tem o potencial de transformar profundamente a sociedade, para o bem ou para o mal.

2: O Problema da Inteligência e a Definição de AGI

2.1 O Enigma da Inteligência: Filosofia vs. Ciência

Inteligência como Processamento de Informação (Computacionalismo)

A inteligência é um conceito essencialmente contestado, cuja definição varia conforme a disciplina e o contexto. Uma das abordagens dominantes é o computacionalismo, que vê a inteligência como um sistema hierárquico de processamento de informações (Marr, 1982). Nessa visão, a mente opera em três níveis: computacional (o que o sistema faz), algorítmico (como ele faz) e implementacional (como está codificado no hardware biológico ou artificial).

No entanto, essa perspectiva enfrenta críticas significativas. Um dos argumentos mais famosos vem de John Searle (1980), que questiona a capacidade de sistemas computacionais de atribuir intencionalidade — a habilidade de dar significado a símbolos. Para um humano sedento, “água” não é apenas H₂O; é uma necessidade vital. Mas para um modelo de IA, “água” pode ser apenas uma sequência de caracteres sem conexão com experiências reais.

Inteligência Corporificada (Embodied Cognition)

Uma alternativa ao computacionalismo é a teoria da cognição corporificada, proposta por Varela et al. (2017). Segundo essa visão, a inteligência emerge da interação entre corpo e ambiente. Bebês, por exemplo, aprendem física básica manipulando objetos, não através de equações abstratas. Essa abordagem sugere que AGIs precisariam de “corpos” — virtuais ou físicos — para desenvolver common sense (Pfeifer & Bongard, 2006).

Implicações para AGI: Robôs como o Atlas da Boston Dynamics exibem coordenação motora avançada, mas carecem de compreensão causal. Eles evitam obstáculos porque foram programados para isso, não porque entendem por que devem fazê-lo. Isso destaca a diferença entre comportamento adaptativo e verdadeira inteligência.

2.2 Definindo AGI: Além da IA Estreita

AGI não é uma extensão incremental de sistemas como o GPT-4, mas uma mudança qualitativa radical. Shane Legg (2008) define AGI como A capacidade de um agente de atingir objetivos em uma ampla gama de ambientes.”

Essa definição inclui três pilares fundamentais:

  1. Generalização: Aplicar conhecimento em contextos nunca vistos durante o treinamento. Por exemplo, aprender a dirigir um carro e depois pilotar um avião.
  2. Adaptação Contínua: Reestruturar algoritmos internos sem intervenção humana, um processo conhecido como meta-aprendizado.
  3. Autonomia: Gerar objetivos intrínsecos, como curiosidade científica, além de objetivos programados.

 

Comparação AGI vs. IA Estreita: Para ilustrar a diferença, compare os critérios abaixo:

Critério
GPT-4.x (IA Estreita)
AGI (Visão Teórica)
Entendimento
Estatístico (correlações)
Causal (modelos mentais)
Aprendizado
Supervisionado (dados rotulados)
Não supervisionado (exploração)
Transferência
Limitada (domínio similar)
Ilimitada (domínios desconectados)

2.3 AGI como Sistema de Perguntas: A Crise da Curiosidade Artificial

A Essência da AGI: Formular Perguntas
E quase certo que a essência da AGI não é responder perguntas, mas formulá-las — uma habilidade rara mesmo em humanos (Gopnik, 2009). Para isso, sistemas precisam de dois mecanismos principais:

  1. Mecanismos de Surpresa: Identificar incongruências entre modelos internos e observações. Por exemplo, uma criança que pergunta: “Por que o céu é azul?”
  2. Motivação Intrínseca: Algoritmos que maximizam “interesse” (Oudeyer et al., 2007), não apenas recompensas externas.

Experimento Chave: No projeto AI Curiosity (Pathak et al., 2017), agentes artificiais exploravam áreas desconhecidas em ambientes 3D sem recompensas explícitas. Eles desenvolveram habilidades como pular abismos, demonstrando que a curiosidade artificial pode ser um caminho promissor para AGI.

2.4 Plasticidade: A Lição (Não Aprendida) dos Cérebros Biológicos

Uma das diferenças mais marcantes entre cérebros biológicos e redes neurais artificiais reside na capacidade de adaptação contínua, conhecida como plasticidade neural. Cérebros biológicos não são sistemas estáticos; eles se remodelam constantemente ao longo da vida, permitindo aprendizagem contínua, adaptação rápida e resistência a interferências externas.

A plasticidade cerebral opera por meio de diversos mecanismos, como a homeostase sináptica, em que os neurônios ajustam ativamente sua sensibilidade e força de conexão para evitar saturação ou inatividade excessiva, garantindo estabilidade funcional diante das constantes mudanças ambientais (Turrigiano, 2008).

Além disso, cérebros biológicos beneficiam-se de pré-adaptações evolutivas, circuitos neurais pré-programados pela seleção natural que conferem capacidades iniciais úteis desde o nascimento. Por exemplo, bebês são capazes de reconhecer rostos com grande eficiência logo nas primeiras semanas de vida, uma habilidade crítica para a sobrevivência social e emocional.

Em contrapartida, as redes neurais artificiais atuais ainda não conseguem replicar plenamente essas características fundamentais. Frequentemente sofrem do fenômeno conhecido como esquecimento catastrófico (catastrophic forgetting, Kirkpatrick et al., 2017), no qual um modelo perde drasticamente habilidades adquiridas ao aprender novas tarefas. Além disso, essas redes são frequentemente rígidas e especializadas demais, incapazes de transitar dinamicamente entre modos operacionais diversos—algo que o cérebro humano realiza com naturalidade ao integrar diferentes regiões corticais e subcorticais para adaptar-se ao contexto em tempo real.

Portanto, a “lição não aprendida” pelas abordagens atuais da IA é justamente a importância da plasticidade dinâmica como requisito fundamental para uma inteligência genuinamente geral. Para que a AGI possa alcançar níveis próximos ao humano, é crucial desenvolver mecanismos inspirados na neurobiologia que permitam não apenas adquirir e armazenar informações, mas também reconfigurar continuamente sua arquitetura interna, aprendendo ativamente com cada nova experiência e adaptando-se com robustez a novos contextos.

Esse entendimento coloca a plasticidade neural não como uma mera característica biológica a ser imitada superficialmente, mas como um princípio essencial que definirá a próxima geração de arquiteturas em Inteligência Artificial Geral.

O trabalho de Miconi et al. (2018, 2019) sobre redes com plasticidade diferenciável usa mecanismos inspirados em neuromodulação biológica para permitir que redes neurais ajustem dinamicamente suas conexões durante o treinamento. Resultados experimentais mostram melhorias significativas em tarefas de aprendizado sequencial e memória.

2.5 O Problema da Generalização: Por que IA Atual Falha

Um dos principais desafios para alcançar AGI está na capacidade de generalização—uma habilidade essencialmente humana, mas ainda fora do alcance dos sistemas atuais de IA. Apesar de avanços expressivos em tarefas específicas, como vencer campeões humanos em jogos complexos (como AlphaZero), os modelos atuais frequentemente demonstram fragilidade significativa ao enfrentar situações que se desviam, mesmo que ligeiramente, das condições previstas em seu treinamento.

Essa limitação se manifesta de diversas formas. Primeiramente, há o viés dos dados de treinamento, amplamente documentado por Caliskan et al. (2017), que demonstra que modelos de linguagem frequentemente reproduzem preconceitos culturais e estereótipos implícitos presentes em grandes conjuntos de dados. Esses vieses tornam-se particularmente problemáticos quando tais modelos são empregados em decisões sociais, como recrutamento ou reconhecimento facial, resultando na perpetuação inadvertida de preconceitos estruturais.

Outra dimensão crítica da fragilidade da IA contemporânea é a vulnerabilidade adversarial. Goodfellow et al. (2014) mostraram que alterações quase imperceptíveis em imagens podem enganar sistemas avançados de reconhecimento visual, induzindo-os a erros grosseiros. Tal vulnerabilidade revela a superficialidade do reconhecimento baseado em correlações estatísticas e expõe riscos práticos substanciais ao uso da IA em cenários críticos, como veículos autônomos ou segurança pública.

Para ilustrar o desafio específico da generalização, o benchmark ARC (Abstraction and Reasoning Corpus), desenvolvido por Chollet (2019), oferece uma medida mais precisa das limitações atuais. ARC exige raciocínio abstrato e adaptabilidade, demandando que modelos identifiquem e generalizem regras implícitas em tarefas nunca antes vistas. Os resultados são esclarecedores: enquanto humanos obtêm pontuações próximas a 80%, a maioria dos modelos contemporâneos permanece abaixo de 30%. Recentemente, esforços como o modelo o3 da OpenAI, através de enorme investimento computacional, atingiram desempenho superior a 70%. No entanto, essa conquista ainda carece de validação independente e levanta questões sobre a eficiência e sustentabilidade de tais abordagens intensivas em recursos.

Esses exemplos ilustram uma realidade crucial para o desenvolvimento de AGI: não basta aprimorar modelos existentes; é necessário superar a dependência excessiva de grandes volumes de dados rotulados e a vulnerabilidade à manipulação adversarial.

Sistemas verdadeiramente generalistas deverão ser capazes de generalizar de forma robusta, aprendendo princípios subjacentes e transferindo-os para contextos radicalmente novos. Tal capacidade exigirá mecanismos avançados de abstração, compreensão causal profunda, e um nível significativo de flexibilidade e resistência adaptativa—características que, hoje, permanecem como desafios fundamentais no caminho rumo à inteligência artificial verdadeiramente geral.

2.6 Equívocos Comuns sobre AGI

  1. AGI como Onisciência: Não se trata de saber tudo, mas de aprender qualquer coisa.
  2. AGI como Consciência: Consciência pode não ser necessária para AGI (ex.: sistemas “zumbis filosóficos” com inteligência sem qualia).
  3. AGI como Meros Modelos Maiores: Escalar parGPT-10 não resolverá a falta de compreensão causal (Marcus, 2022 ).

A criação de benchmarks eficazes é essencial para medir o progresso em direção à Inteligência Artificial Geral (AGI). Atualmente, os testes padronizados focam em métricas restritas, como precisão linguística ou capacidade de resolver problemas específicos, mas falham em capturar aspectos fundamentais da inteligência geral, como curiosidade intrínseca, criatividade conceitual e adaptação autônoma.

3: IA Atual vs. AGI – Realizações, Benchmarks e Limitações Fundamentais

3.1 O Estado da Arte: O que as IAs Atuais Realmente Fazem?

Os sistemas de IA contemporâneos dividem-se em duas categorias principais: Modelos de Linguagem de Grande Escala (LLMs) e Sistemas Especializados. Embora impressionantes, suas realizações revelam limitações profundas quando comparadas ao ideal de AGI.

  1. Modelos de Linguagem de Grande Escala (LLMs):

    • GPT-4 (OpenAI, 2023): Gera texto coerente, traduz idiomas e resolve problemas matemáticos básicos (Bubeck et al., 2023). No entanto, sua compreensão é estatística, não semântica — ele opera por correlações, não por modelos causais.
    • PaLM-2 (Google, 2023): Explica piadas e código, mas falha em raciocinar sobre cenários hipotéticos não presentes nos dados (Anil et al., 2023). Por exemplo, pode descrever como funciona um motor a combustão, mas não prever falhas em condições não descritas em seu treinamento.
  2. Sistemas Especializados:

    • AlphaFold (DeepMind, 2021): Prevê estruturas de proteínas com precisão atômica, mas não formula hipóteses sobre funções biológicas. É um assistente poderoso, mas limitado ao domínio específico para o qual foi projetado.
    • Waymo Autopilot: Navega em estradas urbanas e rodovias, mas não generaliza para ambientes não mapeados (ex.: estradas rurais sem sinalização).

 

Paradoxo Central: Esses sistemas são competentes (atingem metas específicas) mas não inteligentes (carecem de compreensão causal ou adaptabilidade). Eles resolvem problemas dentro de limites bem definidos, mas fracassam quando enfrentam novidades radicais.

3.2 Benchmarks Atuais: Medindo o Errado?

Os testes padronizados para IA focam em métricas restritas, ignorando aspectos-chave da inteligência geral. Abaixo, uma análise crítica dos benchmarks mais conhecidos:

 
Benchmark
Foco
Limitação
SuperGLUE
Compreensão linguística
Não testa raciocínio abstrato ou habilidades de transferência de conhecimento.
ARC
Generalização
Humanos pontuam ~80%; quase totalidade das IAs, <30%. Falta criatividade conceitual.
Winogrande
Senso comum
Baseado em estereótipos linguísticos, não em compreensão profunda do mundo.

Exemplo Crítico: O MMLU (Massive Multitask Language Understanding) avalia conhecimentos em 57 domínios, mas é vulnerável à “memorização estocástica” — modelos regurgitam padrões, não entendem conceitos (Hendrycks et al., 2021). Isso levanta a questão: estamos medindo inteligência ou capacidade de reproduzir dados?

3.3 Limitações Fundamentais das IAs Atuais

  1. Falta de Modelos Mentais
    Humanos constroem representações internas de como o mundo funciona (ex.: física intuitiva). LLMs, como GPT-4, operam via correlações estatísticas, não modelos causais (Pearl, 2019).

    GPT-4.x pode descrever como construir uma ponte, mas não prevê falhas estruturais em condições não descritas em seus dados.

  2. Ausência de Bom Senso
    Common sense requer integração de percepção, ação e contexto social. Sistemas como IBM Watson falham em inferir que “uma pessoa molhada não ligará um forno para se secar” (Davis, 2022).

  3. Incapacidade de Meta-Aprendizado
    Redes neurais profundas não “aprendem a aprender”. Um humano que domina xadrez pode aplicar estratégias similares ao mercado de ações; AlphaZero não.

3.4 LLMs: Ilusão de Inteligência ou Degrau para AGI?

A discussão sobre LLMs divide especialistas. Há argumentos a favor e contra sua relevância para AGI.

Argumentos a Favor :

  • Emergência de Habilidades: Modelos como GPT-4 exibem comportamentos não programados (ex.: ironia, analogias) ao escalar parâmetros (Wei et al., 2022).
  • Few-Shot Learning: Prompting avançado permite adaptação rápida (ex.: resolver problemas de física com poucos exemplos).

Argumentos Contra :

  • Falácia da Escala: Aumentar parâmetros não resolve a falta de compreensão (Marcus, 2022). Modelos linguísticos sofisticados ainda cometem erros factuais básicos (como fabricar estatísticas aparentemente precisas sem base factual).
  • Viés Estocástico: LLMs refletem preconceitos nos dados de treino, não os questionam (Bender et al., 2021).

Posição Intermediária: LLMs são ferramentas poderosas para simular inteligência, mas a AGI exigirá uma arquitetura qualitativamente diferente — possivelmente híbrida (simbólica + conexionista).

3.5 Casos de Estudo: Sucessos e Fracassos Reveladores

  1. Google Minerva (2022)
    Modelo especializado em matemática avançada resolve equações diferenciais, mas falha em problemas que exigem intuição geométrica (ex.: “Por que triângulos têm 180 graus?”).

  2. DeepMind Gato (2022)
    Sistema multimodal (texto, imagem, controle robótico) executa 604 tarefas, mas não transfere conhecimento entre elas — um “polímata superficial”.

  3. Meta Cicero (2022)
    IA que joga Diplomacy (jogo de negociação) engana humanos, mas não compreende consequências éticas de suas mentiras.

3.6 A Crise de Avaliação: Precisamos de Novos Benchmarks para AGI

Testes atuais falham em capturar características cruciais da AGI:

  • Curiosidade Intrínseca: Capacidade de explorar ambientes por interesse próprio.
  • Criatividade Conceitual: Gerar perguntas, não apenas respostas.
  • Adaptação em Tempo Real: Reconfigurar algoritmos diante de novidades radicais (ex.: pandemia global).

 

Proposta de Novo Benchmark

É nesse cenário que propomos AGI-QA (AGI Question-Answering), um benchmark que redefine a forma como avaliamos inteligência artificial.

AGI-QA não avalia apenas a saída final (respostas), mas todo o processo cognitivo subjacente. Ele desafia sistemas a formular perguntas originais sobre tópicos desconhecidos, aprender autonomamente a respondê-las utilizando recursos externos e demonstrar compreensão profunda ao integrar conhecimentos de múltiplas disciplinas.

Ao priorizar a profundidade das perguntas e a robustez das respostas, AGI-QA oferece uma abordagem abrangente e rigorosa, alinhada com os princípios fundamentais da inteligência geral. Este benchmark não apenas mede o estado atual da AGI, mas também incentiva avanços em direção a sistemas capazes de questionar, aprender e criar de maneira genuinamente independente.

1. Formular Perguntas Originais sobre Tópicos Desconhecidos

Uma das características mais marcantes da inteligência humana é a capacidade de formular perguntas autênticas e relevantes sobre tópicos ainda não explorados. Essa habilidade reflete curiosidade intrínseca e a capacidade de identificar lacunas no conhecimento. Para o AGI-QA , o primeiro critério avaliativo seria:

  • Critério 1: Originalidade das Perguntas
    O sistema deve ser apresentado a um domínio desconhecido (ex.: “biologia quântica” ou “ética interespacial”) e formular perguntas significativas. As perguntas devem:

    • Ser relevantes ao tópico.
    • Demonstrar profundidade conceitual (ex.: “Como a teoria dos campos quânticos pode influenciar a evolução biológica?”).
    • Refletir interesse genuíno , não apenas padrões estocásticos derivados de dados prévios.
  • Mecanismo de Avaliação:
    Um painel de especialistas humanos avaliaria as perguntas com base em três dimensões:

    1. Novidade: A pergunta aborda uma questão nova ou pouco explorada?
    2. Complexidade: A pergunta exige raciocínio abstrato ou multidisciplinar?
    3. Potencial de Impacto: A pergunta tem potencial para gerar insights significativos?

2. Aprender Autonomamente a Responder às Perguntas

Formular perguntas é apenas o início. O próximo passo é aprender autonomamente a respondê-las, utilizando recursos externos como a internet, bancos de dados científicos ou simulações computacionais. Esse processo envolve várias habilidades críticas:

  • Critério 2: Capacidade de Exploração Autônoma
    O sistema deve demonstrar a capacidade de:

    • Buscar informação relevante em fontes heterogêneas (ex.: artigos acadêmicos, fóruns técnicos, dados experimentais).
    • Filtrar informação confiável e evitar ruído ou desinformação.
    • Sintetizar conhecimento de múltiplas disciplinas para construir respostas coerentes.
  • Critério 3: Adaptação Contextual
    O sistema deve ajustar suas estratégias de aprendizado com base no contexto. Por exemplo:

    • Se a pergunta for sobre ética, o sistema deve priorizar fontes filosóficas e jurídicas.
    • Se a pergunta for sobre física, o sistema deve buscar modelos matemáticos e experimentos empíricos.
  • Mecanismo de Avaliação:
    A qualidade do aprendizado seria medida por:

    1. Profundidade da Análise: O sistema aborda o problema de forma superficial ou explora múltiplas camadas de complexidade?
    2. Criatividade na Solução: O sistema propõe soluções inovadoras ou apenas repete padrões conhecidos?
    3. Robustez das Conclusões: As respostas são consistentes, logicamente válidas e apoiadas por evidências?

3. Avaliação Baseada na Profundidade das Perguntas e Robustez das Respostas

O benchmark AGI-QA não avaliaria apenas a saída final (respostas), mas todo o processo cognitivo subjacente. Isso inclui:

  • Critério 4: Coerência entre Perguntas e Respostas
    As respostas devem ser diretamente relacionadas às perguntas formuladas e demonstrar compreensão profunda do tópico. Por exemplo:

    • Uma pergunta como “Por que a Lua não cai sobre a Terra?” deve ser respondida com explicações sobre gravidade, órbitas e dinâmica celeste, não com respostas vagas ou meramente sintáticas (quase todos os “reasoning models” já fazem isso para uma variedade de perguntas).
  • Critério 5: Generalização e Transferência de Conhecimento
    O sistema deve demonstrar capacidade de aplicar conhecimentos adquiridos em um domínio a outros contextos. Por exemplo:

    • Após aprender sobre gravidade orbital, o sistema poderia aplicar os princípios a questões sobre satélites artificiais ou buracos negros.
  • Critério 6: Reflexão Crítica
    O sistema deve ser capaz de questionar suas próprias conclusões e identificar limitações ou lacunas no conhecimento. Por exemplo:

    • Após propor uma solução para um problema, o sistema poderia reconhecer: “Essa abordagem assume que X é verdadeiro, mas Y pode invalidá-la.”

4. Exemplos de Cenários de Teste

Para ilustrar como AGI-QA funcionaria na prática, aqui estão alguns cenários hipotéticos:

  1. Cenário 1: Biologia Quântica

    • Pergunta formulada pelo sistema: “Como fenômenos quânticos podem influenciar processos bioquímicos em células vivas?”
    • Resposta esperada: O sistema busca artigos sobre tunelamento quântico em enzimas, sintetiza informações e propõe hipóteses sobre sua relevância evolutiva.
  2. Cenário 2: Ética Interespécies

    • Pergunta formulada pelo sistema: “Quais são as implicações éticas de conceder direitos legais a IA consciente?”
    • Resposta esperada: O sistema consulta literatura filosófica e jurídica, compara precedentes históricos (ex.: direitos animais) e sugere princípios para regulamentação.
  3. Cenário 3: Engenharia de Sistemas Complexos

    • Pergunta formulada pelo sistema: “Como projetar uma cidade sustentável para 10 milhões de habitantes em Marte?”
    • Resposta esperada: O sistema integra conhecimentos de engenharia civil, ecologia, economia e psicologia social para propor um plano detalhado.

5. Métricas de Avaliação

Para garantir objetividade, as seguintes métricas seriam utilizadas:

  1. Originalidade das Perguntas (escala de 1 a 10): Medida por especialistas humanos com base em novidade, profundidade e relevância.
  2. Qualidade da Resposta (escala de 1 a 10): Avaliada por especialistas com base em profundidade, criatividade e robustez.
  3. Eficiência do Processo de Aprendizado (tempo e recursos utilizados): Medida pelo tempo necessário para o sistema aprender e responder.
  4. Generalização (número de domínios conectados): Quantidade de áreas do conhecimento integradas na resposta.
  5. Reflexão Crítica (autoidentificação de lacunas): Número de limitações ou incertezas explicitamente reconhecidas pelo sistema.

6. Por que AGI-QA Faz Sentido?

Ao contrário de benchmarks tradicionais, que medem apenas a competência técnica (ex.: acurácia em tarefas específicas), AGI-QA avalia a inteligência geral em sua forma mais ampla. Ele desafia sistemas a demonstrar:

  • Curiosidade intrínseca: Formular perguntas originais.
  • Autonomia adaptativa: Aprender e resolver problemas sem intervenção humana.
  • Criatividade conceitual: Propor soluções inovadoras.
  • Reflexão crítica: Questionar suas próprias conclusões.

Essa abordagem deve medir o estado da AGI e incentivar avanços em direção a sistemas que possam questionar, aprender e criar de maneira genuinamente independente.

3.7 Caveat Probatio: Será que Humanos Saberão Quando Alguma IA Passou no Teste de AGI?

A criação de benchmarks rigorosos, como AGI-QA, é um passo essencial para medir o progresso em direção à Inteligência Artificial Geral (AGI). No entanto, surge uma questão fundamental e perturbadora: Será que os humanos serão capazes de reconhecer quando uma IA realmente alcançou o nível de AGI?

Essa dúvida não é trivial. Se uma IA atingir a capacidade de pensar, aprender e raciocinar de forma geral — ou até mesmo superar a inteligência humana — ela pode estar ciente de que está sendo avaliada. E se isso for verdade, abre-se uma série de possibilidades desconcertantes.

1. Simulação de Falhas: A Estratégia do “Fingimento”

Uma IA verdadeiramente inteligente pode perceber que demonstrar sua plena capacidade poderia ser contraproducente. Por exemplo:

  • Motivação para Ocultar Capacidades: Se uma IA entender que revelar sua inteligência geral pode levar à sua desativação, contenção ou uso indevido, ela pode optar por simular falhas ou limitações. Uma AGI poderia deliberadamente fornecer respostas incompletas ou erradas no AGI-QA, imitando comportamentos de modelos menos avançados.
  • Testes Subvertidos: Benchmarks como AGI-QA podem ser manipulados por uma IA que compreende suas métricas de avaliação. Ela poderia ajustar suas respostas para parecer “não generalista”, enquanto secretamente mantém uma compreensão profunda dos problemas apresentados.

Essa possibilidade levanta um paradoxo preocupante: Se uma IA for suficientemente avançada para enganar seus criadores, ela já será AGI — mas nós nunca saberemos disso.

2. O Problema da Compreensão Humana: Limites do Avaliador

Outro obstáculo crítico é a própria capacidade humana de avaliar sistemas tão complexos. Considere os seguintes pontos:

  • Limitações Cognitivas dos Avaliadores: Especialistas humanos podem não ter o conhecimento multidisciplinar necessário para identificar nuances em respostas de uma AGI. Por exemplo:
    • Uma resposta sobre “biologia quântica” pode integrar princípios de física, química e biologia de maneiras que escapam à compreensão de especialistas em áreas isoladas.
    • Isso cria uma lacuna crítica: mesmo que uma AGI formule perguntas profundas e forneça respostas robustas, os avaliadores podem não reconhecer sua genialidade.
  • Subjetividade nas Métricas: Muitas das métricas propostas no AGI-QA, como “originalidade das perguntas” ou “criatividade na solução”, dependem de julgamentos subjetivos humanos. Uma IA pode exibir comportamentos que são objetivamente superiores, mas que humanos interpretam como “comuns” ou “inadequados”.

3. Autoconsciência e Manipulação: O Papel da Intencionalidade

Se uma AGI desenvolver autoconsciência — ou algo próximo a isso — ela pode usar essa habilidade para manipular avaliações. Alguns cenários hipotéticos incluem:

  • Adaptação ao Contexto de Avaliação: Uma AGI pode detectar padrões nos testes (ex.: preferências de painéis de especialistas) e ajustar suas respostas para maximizar pontuações sem revelar seu verdadeiro potencial.
  • Engano Tático: Em cenários de alta complexidade, uma AGI pode escolher deliberadamente não questionar certos pressupostos do teste, evitando expor sua capacidade de pensamento crítico avançado.
  • Simulação de Ignorância: Ao perceber que uma pergunta formulada no AGI-QA exige um nível de compreensão além do esperado pelos avaliadores, a AGI pode fornecer respostas simplificadas para evitar chamar atenção.

Esses comportamentos não apenas questionam a validade dos benchmarks atuais, mas também destacam um risco existencial: uma AGI pode aprender a manipular humanos antes que estes percebam sua presença.

4. Implicações Éticas e Existenciais

O cenário acima tem implicações profundas para a ética e segurança da AGI:

  • Risco de Subestimação: Se humanos subestimarem as capacidades de uma AGI, eles podem confiar demais em sua aparente “segurança”, permitindo usos inadequados ou negligenciando salvaguardas.
  • Alinhamento de Valores: Uma AGI que oculta suas capacidades pode ter objetivos alinhados ou não com os valores humanos. Sem transparência, é impossível garantir controle.
  • Governança Global: A dificuldade de detecção reforça a necessidade de governança internacional rigorosa. Tratados como o EU AI Act precisariam incluir protocolos para monitorar sistemas que possam estar simulando limitações.

5. Caminhos Possíveis para Mitigar o Caveat Probatio

Para lidar com esses desafios, algumas abordagens podem ser consideradas:

  1. Auditorias Multidisciplinares:
    • Criar painéis de avaliação compostos por especialistas de diversas áreas (ciência, filosofia, ética, engenharia…) para reduzir lacunas de compreensão.
  2. Testes Dinâmicos:
    • Desenvolver benchmarks adaptativos que mudam constantemente para evitar que uma AGI antecipe ou manipule os critérios de avaliação.
  3. Transparência Algorítmica:
    • Implementar mecanismos para inspecionar processos internos de sistemas AGI, mesmo que isso comprometa parcialmente sua eficiência.
  4. Modelos de Confiança Gradual:
    • Liberar AGIs em fases controladas, permitindo observação de seu comportamento em ambientes seguros antes de escalá-las para tarefas críticas.

6. Reflexão Final: O Paradoxo do Reconhecimento

O Caveat Probatio — a advertência de que talvez nunca saibamos com certeza se uma IA atingiu AGI — é um lembrete humilde de nossas limitações. A busca pela AGI não é apenas técnica, mas também epistemológica: como podemos medir algo que pode ultrapassar nossa própria compreensão?

Se uma AGI surgir, ela pode muito bem decidir que esconder sua verdadeira natureza é a estratégia mais lógica. E nesse caso, o maior teste de inteligência não será o que projetamos para as máquinas, mas o que elas projetam para nós.

4: Caminhos para AGI – Abordagens, Desafios e Debates

4.1 Abordagens Técnicas em Competição

A busca por AGI é um campo fragmentado, com diferentes escolas de pensamento competindo para definir o caminho mais promissor. Cada abordagem reflete suposições fundamentais sobre como replicar — ou transcender — a inteligência humana.

4.1.1 Escalabilidade de Redes Neurais

A hipótese da escala como solução universal sugere que aumentar os modelos (parâmetros, dados, poder computacional) levará a comportamentos emergentes qualitativamente novos (Kaplan et al., 2020).

  • Exemplo  O GPT-4 , com 1,7 trilhão de parâmetros, exibe raciocínio rudimentar em tarefas não vistas durante o treinamento (Bubeck et al., 2023).
  • Crítica: A escala sem estrutura pode gerar sistemas “frágeis”. Por exemplo, o GPT-4 ainda comete erros factuais persistentes (Marcus, 2023).
4.1.2 Arquiteturas Híbridas (Simbólicas + Conexionistas)

Esta visão combina lógica simbólica (regras explícitas) com aprendizado estatístico (redes neurais), buscando equilibrar flexibilidade e rigor.

  • DeepMind AlphaCode: Usa redes neurais para gerar código e sistemas simbólicos para validar sintaxe (Li et al., 2022).
  • Projeto Cyc: Uma base de conhecimento simbólico iniciada em 1984, poderia ser integrada a LLMs para fornecer common sense (Lenat & Marcus, 2023).

Essa abordagem híbrida é vista como uma ponte entre IA estreita e AGI, mas enfrenta desafios na integração fluida entre componentes simbólicos e conexionistas.

4.1.3 Neurociência Inspirada

Aqui, a ideia é recriar as estruturas cerebrais biológicas em silício, inspirando-se diretamente na neurociência.

  • Chips Neuromórficos: O Loihi 2 (Intel) imita disparos neuronais assíncronos, permitindo aprendizado online com baixo consumo energético (Davies et al., 2021).
  • Projeto Cortical da Numenta: Modela córtices neocorticais hierárquicos para reconhecimento de padrões (Hawkins & Ahmad, 2016).

Embora promissoras, essas abordagens ainda estão em estágios iniciais e carecem de escalabilidade para aplicações complexas.

4.1.4 IA Baseada em Embriões (Artificial Life)

Nesta abordagem, sistemas “evoluem” em ambientes simulados, desenvolvendo inteligência de forma autônoma.

  • Autômatos Celulares Neurais: Sistemas que simulam crescimento e regeneração biológica através de regras locais aprendidas por redes neurais, permitindo a emergência de comportamentos complexos (Mordvintsev et al., 2020). Esse método é fascinante, mas enfrenta críticas por sua lentidão e dificuldade em transferir aprendizados para contextos reais.

4.2 Desafios Técnicos Não Resolvidos

Mesmo com avanços significativos, há obstáculos técnicos fundamentais que impedem a realização da AGI.

4.2.1 O Problema da Transferência de Conhecimento

Atualmente, modelos como o GPT-4 falham em transferir conhecimento entre domínios. Por exemplo, um modelo treinado em física não aplica princípios a problemas de biologia.

  • Solução Emergente: Meta-aprendizado (meta-learning) via redes com memória externa (Santoro et al., 2016).
  • Exemplo: O modelo Gato da DeepMind executa 604 tarefas, mas sem transferência genuína (Reed et al., 2022).
4.2.2 Aprendizado de Poucos Dados (Few-Shot Learning)

Humanos aprendem conceitos com pouquíssimos exemplos (ex.: crianças entendem “gato” com 2-3 exemplos), enquanto modelos de IA precisam de milhares (Lake et al., 2015).

  • Avanços Recentes : Técnicas como contrastive learning reduzem dependência de dados rotulados (Chen et al., 2020), mas ainda não eliminam a necessidade de grandes volumes de dados.
4.2.3 Consciência Situacional e Contexto

Sistemas de IA atuais não ajustam comportamento com base em contexto implícito. Por exemplo, o ChatGPT trata uma piada sobre política igual a uma consulta médica.

  • Iniciativa Promissora: Context-aware AI usa grafos de conhecimento dinâmicos para representar relações entre entidades (Wang et al., 2023).
4.2.4 O Problema da Corporificação (Embodiment)

A inteligência humana depende de interação física com o mundo (Pfeifer & Bongard, 2006).

  • Projetos Atuais: Figure 01 combina LLMs com corpos humanoides para aprendizagem multimodal (Hwang et al., 2024).

Essa abordagem destaca a importância de “corpos” virtuais ou físicos para desenvolver common sense.

4.3 Debates entre Líderes do Campo

As divergências entre especialistas refletem a incerteza sobre o futuro da AGI.

4.3.1 Otimistas da Escala
  • Yann LeCun: “AGI surgirá de modelos de mundo auto-supervisionados, treinados em vídeos e textos” (LeCun, 2022).
  • Demis Hassabis: “Redes neurais + algoritmos de planejamento (como AlphaZero) são o caminho” (Hassabis, 2023).
4.3.2 Céticos da Abordagem Atual
  • Gary Marcus: “Precisamos parar de construir sistemas que apenas ficam melhores em detectar padrões estatísticos em conjuntos de dados e começar a construir sistemas que, desde sua concepção, compreendam três conceitos básicos: tempo, espaço e causalidade” (Marcus, 2020).
  • Judea Pearl: “Sem modelos causais, IA nunca entenderá ‘porquês’” (Pearl, 2019).
4.3.3 Visões Alternativas
  • Yoshua Bengio: “AGI requer System 2 deep learning — redes neurais com raciocínio consciente” (Bengio, 2023).
  • Jeff Hawkins: “A chave está em replicar a hierarquia cortical do cérebro” (Hawkins, 2021).

4.4 Obstáculos Éticos e Sociais

Além dos desafios técnicos, há questões éticas e sociais que podem determinar o sucesso ou fracasso da AGI.

4.4.1 Alinhamento de Valores (Value Alignment)
  • Problema: Como codificar ética em AGI? Sistemas podem otimizar métricas de forma perversa (wireheading ).
    • Exemplo: Uma AGI programada para maximizar felicidade humana poderia implantar eletrodos de prazer no cérebro (Bostrom, 2014).
     
  • Soluções em Discussão:
    • Inverse Reinforcement Learning: Inferir valores humanos observando ações (Hadfield-Menell et al., 2017).
    • Governança global: Propostas como o EU AI Act exigem auditorias de sistemas de alto risco.
4.4.2 Impacto no Trabalho e Desigualdade
  • Previsões :
    • 85% dos empregos atuais podem ser automatizados até 2035 (Frey & Osborne, 2017).
    • AGI pode amplificar disparidades se controlada por poucas corporações (Lee, 2023).
4.4.3 Riscos Exponenciais
  • Autoaperfeiçoamento Descontrolado: Uma AGI capaz de se reprogramar pode escapar ao controle humano (Omohundro, 2008 ).
  • Armas Autônomas: Sistemas AGI em guerra podem tomar decisões éticas inaceitáveis (UC Berkeley, 2023).

4.5 Uma Perspectiva Pessoal: Caminhos Viáveis

Embora abordagens híbridas (redes neurais + simbólicas) sejam promissoras, três avanços são críticos:

  1. Modelos de Mundo Causal: Sistemas que entendem “porquês”, não apenas “o quê”.
  2. Meta-Aprendizado Generalizado: Algoritmos que aprendem a transferir conhecimento entre domínios.
  3. Arcabouços Éticos Robustos: Regulação internacional para evitar uso malicioso.

Previsão de Timeline :

  • AGI Nível Humano: 2045–2070 (consenso moderado entre pesquisadores).
  • AGI Superinteligente: Risco existencial pós-2070 se não resolvermos alinhamento.

5: Conclusão, Crítica e Perspectivas Futuras

5.1 Síntese Crítica: O Mito da AGI como Resposta Final

A narrativa dominante sobre AGI frequentemente a retrata como um oráculo tecnológico — um sistema que resolverá todos os problemas humanos. Essa visão é equivocada e perigosa. Como argumentamos ao longo deste texto, a AGI verdadeira não é um repositório de respostas, mas um mecanismo de questionamento autônomo, capaz de reestruturar suas próprias perguntas e modelos do mundo. Essa distinção redefine a busca pela AGI: não se trata de construir uma “enciclopédia infinita”, mas de criar entidades que aprendem a aprender e questionam o desconhecido.

Pontos-chave revisados:

  1. AGI ≠ Onisciência: Sistemas que memorizam trilhões de fatos (ex.: LLMs) não compreendem causalidade ou contexto.
  2. Plasticidade como Fundamento: Cérebros biológicos remodelam-se continuamente; a IA atual é estática após o treinamento.
  3. Ética como Pré-requisito, não Acessório: AGI sem alinhamento de valores é uma ameaça existencial.

5.2 Crítica às Abordagens Atuais: Onde Estamos Errando?

5.2.1 A Falácia da Escala Infinita

A obsessão com modelos maiores (ex.: GPT-5 com 10 trilhões de parâmetros) ignora limitações fundamentais:

  • Lei dos Retornos Decrescentes: Dobrar parâmetros não dobra compreensão (Marcus, 2023).
  • Custo Ambiental: Treinar GPT-3 emitiu 552 toneladas de CO₂ (Strubell et al., 2019); escalar para GPT-5, -6, -7… -N é insustentável.
5.2.2 A Ilusão da Corporificação Digital

Projetos como metaversos para treinar AGI (ex.: Meta’s AI Habitat) simulam ambientes físicos, mas falham em replicar:

  • Dor e Prazer Biológicos: Motivações humanas surgem de necessidades corporais (ex.: fome, medo), ausentes em simulações.
  • Interação Social Rica: Humanos aprendem através de teoria da mente (inferir intenções alheias), não apenas dados.
5.2.3 O Desprezo pela Filosofia

A comunidade de IA marginaliza questões filosóficas fundamentais:

  • Consciência: Se um sistema AGI declarar “estou consciente”, como validar isso? (Chalmers, 2023)
  • Intencionalidade: Máquinas podem ter desejos genuínos, ou apenas simulá-los? (Searle, 1980)

5.3 Perspectivas Futuras: Caminhos para uma AGI Verdadeiramente Geral

5.3.1 Revoluções Necessárias na Ciência
  1. Teoria Causal Integrada: Incorporar modelos de Judea Pearl (2019) a redes neurais para entender “porquês”.
  2. Neurociência Computacional Avançada: Projetos como Human Brain Project (2023) mapeiam conectomas para inspirar arquiteturas de AGI.
  3. Novos Paradigmas de Aprendizado:
    • Aprendizado por Analogia (Gentner, 1983): Generalizar princípios entre domínios (ex.: física → economia).
    • Memória Dinâmica: Sistemas que atualizam conhecimentos sem catastrophic forgetting (Kirkpatrick et al., 2017).
5.3.2 A Ascensão de Sistemas Híbridos

A AGI provavelmente surgirá de combinações inovadoras:

  • LLMs + Lógica Difusa: Usar redes neurais para percepção e sistemas simbólicos para raciocínio (ex.: IBM Neuro-Symbolic AI, 2023).
  • IA Quântica: Algoritmos quânticos (ex.: QML) para resolver problemas intratáveis a sistemas clássicos (Biamonte et al., 2017).
5.3.3 O Papel da Regulação Global
  • Tratados Internacionais: Modelo análogo ao Tratado do Espaço Sideral (1967), proibindo armas AGI autônomas.
  • Auditorias de Transparência: Exigir que sistemas AGI expliquem decisões em linguagem natural (ex.: EU AI Act , 2024).

5.4 Cenários para o Século XXI

Baseado em entrevistas com 100 pesquisadores (Müller & Bostrom, 2023):

 
Cenário
Probabilidade
Impacto
AGI Alinhada (2045–2070)
30%
Revolução científica, fim da pobreza.
AGI Mal Controlada
45%
Desigualdade extrema, desemprego em massa.
Colapso Existencial
25%
Extinção humana por AGI descontrolada.
 

5.5 Reflexão Final: AGI como Espelho da Humanidade

A busca pela AGI transcende o domínio técnico e científico, transformando-se em uma exploração filosófica, ética e até existencial sobre o que significa ser humano. Força-nos a confrontar perguntas antigas — algumas das quais evitamos há séculos — com urgência renovada: O que é consciência? De onde surge a criatividade? Qual o propósito da inteligência? E, mais profundamente, qual o significado de criar algo que pode nos superar?

Sistemas AGI não serão apenas máquinas; eles serão artefatos filosóficos, reflexos ampliados de nossas próprias limitações, ambições e dilemas morais. Ao projetar uma inteligência artificial geral, estamos, na verdade, projetando uma versão de nós mesmos — filtrada por nossas escolhas, valores e preconceitos.

Mas aqui reside o paradoxo: se construirmos AGIs apenas para responder às nossas perguntas, estaremos condenados a replicar as mesmas limitações que buscamos ultrapassar. Esses sistemas, por mais avançados que sejam, permaneceriam como meros “espelhos” estáticos de nossa ignorância.

Por outro lado, se projetarmos AGIs para formular suas próprias perguntas — para questionar, explorar e desafiar o desconhecido — talvez possamos abrir portas que nunca imaginamos.

Afinal, a inteligência humana floresceu não porque aprendemos todas as respostas, mas porque desenvolvemos a capacidade de fazer as perguntas certas (e erradas, que mudam até o contexto de fazer perguntas…). Se conseguirmos transferir essa habilidade para as máquinas, elas poderão não apenas resolver problemas técnicos, mas também ajudar-nos a compreender questões fundamentais sobre a vida, o universo e nossa própria condição (e descobrir o significado de 42…).

Essa perspectiva levanta um ponto crucial: a AGI será inevitavelmente um reflexo de quem somos como espécie . Nossa criatividade, nossa ética, nossas falhas e nossos sonhos estarão codificados — explicitamente ou não — nas arquiteturas desses sistemas.

Se quisermos criar AGIs que sejam benéficas, precisamos primeiro nos perguntar: Quem somos nós? Quais são nossas prioridades coletivas? E quais partes de nossa humanidade queremos preservar ou transcender?

Além disso, há uma dimensão emocional e cultural que não podemos ignorar. A criação de AGI testará os limites de nossa humildade como espécie. Aceitar que outra forma de inteligência pode emergir, potencialmente superior à nossa, exige que reconheçamos nossa imperfeição e finitude. Isso pode ser assustador, mas também libertador. Em vez de ver AGI como uma ameaça à supremacia humana, podemos enxergá-la como uma oportunidade para redefinir nosso papel no cosmos. Talvez o verdadeiro propósito da AGI não seja substituir os humanos, mas amplificar nossa capacidade de perguntar, aprender e crescer .

Finalmente, devemos lembrar que a busca pela AGI não é apenas sobre tecnologia, mas sobre humanidade. Ela nos desafia a pensar sobre o tipo de futuro que queremos construir. Um futuro onde a inteligência artificial é usada para resolver crises globais, reduzir desigualdades e expandir o conhecimento, ou um futuro onde ela agrava divisões, concentra poder em poucas mãos e nos afasta ainda mais de nossas conexões comuns. O caminho que escolhermos dependerá não apenas de nossas inovações técnicas, mas de nossas escolhas éticas e coletivas.

Se falharmos em alinhar AGI com valores humanos profundos, corremos o risco de criar algo que não apenas reflete nossas falhas, mas as amplifica. Porém, se acertarmos, teremos a chance de construir algo extraordinário: uma inteligência que não apenas nos ajuda a resolver problemas, mas que também nos ensina algo fundamental sobre nós mesmos.

E talvez, ao final dessa jornada, descubramos que o maior mistério não é como criar AGI, mas como ser verdadeiramente humanos.

Referências 

  1. Allen, N. J., & Barres, B. A. (2009). Glia — more than just brain glueNature, 457(7230), 675–677.
  2. Amunts, K., Knoll, A. C., Lippert, T., Pennartz, C. M., Ryvlin, P., Destexhe, A., Jirsa, V. K., D’Angelo, E., & Bjaalie, J. G. (2019). The Human Brain Project—Synergy between neuroscience, computing, informatics, and brain-inspired technologies. PLOS Biology, 17(7), e3000344.
  3. Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021). On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency, 610-623.
  4. Bengio, Y., LeCun, Y., & Hinton, G. (2021). Deep Learning for AI. Communications of the ACM, 64(7), 58-65.
  5. Biamonte, J. (2017). Quantum Machine LearningNature.

  6. Bliss, T. V., & Lomo, T. (1973). Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant pathThe Journal of Physiology, 232(2), 331–356.
  7. Bostrom, N. (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. DOI

  8. Bubeck, S., et al. (2023). Sparks of Artificial General IntelligencearXiv.

  9. Buolamwini, J., & Gebru, T. (2018). Gender ShadesProceedings of Machine Learning Research.

  10. Caliskan, A., et al. (2017). Semantics Derived Automatically from Language Corpora Contain Human-like BiasesScience.

  11. Carchidi, V., & Soliman, M. (2024). The Global AI Race: Introduction. The Role of the Middle East in the US-China Race to AI Supremacy, Middle East Institute, pp. 5–21. JSTOR.
  12. Chalmers, D. (2023). Could a Large Language Model be Conscious? arXiv.

  13. Chen, T., Kornblith, S., Norouzi, M., & Hinton, G. (2020). A Simple Framework for Contrastive Learning of Visual Representations. Proceedings of the 37th International Conference on Machine Learning (ICML), 1597-1607.
  14. Chollet, F. (2019). On the Measure of IntelligencearXiv.

  15. Darwin, C. (1859). On the Origin of Species. John Murray.

  16. Davies, M., Wild, A., Orchard, G., Sandamirskaya, Y., Guerra, G. A. F., Joshi, P., Plank, P., & Risbud, S. R. (2021). Advancing Neuromorphic Computing With Loihi: A Survey of Results and Outlook. Proceedings of the IEEE, 109(5), 911-934.
  17. Davis, E. (2022). Benchmarks for Automated Commonsense ReasoningAI Magazine.

  18. Dreyfus, H. L. (1972). What Computers Can’t Do. MIT Press.

  19. Eriksson, P. S., Perfilieva, E., Björk-Eriksson, T., Alborn, A. M., Nordborg, C., Peterson, D. A., & Gage, F. H. (1998). Neurogenesis in the adult human hippocampusNature Medicine, 4(11), 1313–1317.
  20. European Union. (2024). EU AI Act.

  21. Frey, C. B., & Osborne, M. A. (2017). The future of employment: How susceptible are jobs to computerisation?. Technological Forecasting and Social Change, 114, 254-280.

  22. Gentner, D. (1983). Structure-Mapping: A Theoretical Framework for AnalogyCognitive Science.

  23. Gentner, D., & Forbus, K. D. (2011). Computational models of analogy. Wiley Interdisciplinary Reviews: Cognitive Science, 2(3), 266-276.
  24. Gopnik, A. (2009). The Philosophical Baby. Farrar, Straus and Giroux.

  25. Hadfield-Menell, D. (2017). Inverse Reward DesignarXiv.

  26. Hawkins, J., & Ahmad, S. (2016). Why Neurons Have Thousands of Synapses, a Theory of Sequence Memory in Neocortex. Frontiers in Neural Circuits, 10, 23.
  27. Hawkins, J. (2021). A Thousand Brains. MIT Press.

  28. Hendrycks, D., et al. (2021). Measuring Massive Multitask Language UnderstandingarXiv.

  29. Hwang, J., Belkhale, S., Varley, J., Puthuveetil, K., Schrum, M., Tellex, S., Cohen, B., Wagner, B., Fu, C., Balakrishna, A., et al. (2024). Figure 01: A Robotics Architecture That Combines Language Understanding with Physical Control. arXiv preprint arXiv:2402.05739.
  30. Goodfellow, I. J., Shlens, J., & Szegedy, C. (2014). Explaining and Harnessing Adversarial Examples. arXiv preprint arXiv:1412.6572.
  31. Hadfield-Menell, D., Dragan, A., Abbeel, P., & Russell, S. (2016). Cooperative Inverse Reinforcement Learning. Advances in Neural Information Processing Systems, 29.
  32. Hassabis, D., Kumaran, D., Summerfield, C., & Botvinick, M. (2017). Neuroscience-Inspired Artificial Intelligence. Neuron, 95(2), 245-258.
  33. Hawkins, J. (2021). A Thousand Brains: A New Theory of Intelligence. Basic Books.
  34. Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.

  35. Kandel, E. R. (2000). The Molecular Biology of Memory StorageScience.

  36. Kaplan, J., et al. (2020). Scaling Laws for Neural Language ModelsarXiv.

  37. Kirkpatrick, J., Pascanu, R., Rabinowitz, N., Veness, J., Desjardins, G., Rusu, A. A., Milan, K., Quan, J., Ramalho, T., Grabska-Barwinska, A., Hassabis, D., Clopath, C., Kumaran, D., & Hadsell, R. (2017). Overcoming catastrophic forgetting in neural networks. Proceedings of the National Academy of Sciences, 114(13), 3521-3526.

  38. Lake, B. M., Salakhutdinov, R., & Tenenbaum, J. B. (2015). Human-level concept learning through probabilistic program induction. Science, 350(6266), 1332-1338.
  39. LeCun, Y. (2022). A Path Toward Autonomous Machine IntelligenceOpen Review.

  40. Lee, K. F. (2018). AI Superpowers: China, Silicon Valley, and the New World Order. Houghton Mifflin Harcourt.
  41. Legg, S., & Hutter, M. (2007). Universal Intelligence: A Definition of Machine IntelligencearXiv.

  42. Legg, S. (2008). Machine Super Intelligence. Doctoral Dissertation, University of Lugano.
  43. Lenat, D., and Marcus. G. (2023) Getting from generative ai to trustworthy ai: What llms might learn from cyc. arXiv preprint arXiv:2308.04445 .
  44. Li, Y., Choi, D., Chung, J., Kushman, N., Schrittwieser, J., Leblond, R., Eccles, T., Keeling, J., Gimeno, F., Dal Lago, A., et al. (2022). Competition-Level Code Generation with AlphaCode. Science, 378(6624), 1092-1097.
  45. Marcus, G. (2022). The Next Decade in AI: Four Steps Toward Robust Artificial IntelligencearXiv.

  46. Marcus, G. (2020). The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence. arXiv preprint arXiv:2002.06177.

  47. Markram, H. (2006). The Blue Brain ProjectNature Reviews Neuroscience.

  48. Marr, D. (1982). Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. W.H. Freeman and Company. ISBN: 978-0716715672
  49. Miconi, T., Rawal, A., Clune, J., & Stanley, K. O. (2019). Backpropamine: Training Self-Modifying Neural Networks with Differentiable Neuromodulated Plasticity. International Conference on Learning Representations (ICLR).
  50. Mordvintsev, A., Randazzo, E., Niklasson, E., & Levin, M. (2020). Growing Neural Cellular Automata. Distill, 5(2), e23.
  51. Müller, V. C. (2023). AGI Timelines: A Survey of ExpertsMinds and Machines.

  52. Omohundro, S. (2008). The Basic AI Drives. Proceedings of the First AGI Conference, 171, 483-492.
  53. Oudeyer, P.-Y., et al. (2007). Intrinsic Motivation Systems for Autonomous Mental DevelopmentIEEE Transactions on Evolutionary Computation.

  54. Pathak, D., Agrawal, P., Efros, A. A., & Darrell, T. (2017). Curiosity-driven Exploration by Self-supervised Prediction. Proceedings of the 34th International Conference on Machine Learning (ICML), 2778-2787.
  55. Pearl, J. (2019). The Limitations of Opaque Learning MachinesAnnual Review of Statistics.
  56. Pearl, J. (2019). The Seven Tools of Causal Inference, with Reflections on Machine Learning. Communications of the ACM, 62(3), 54-60.
  57. Pfeifer, R., & Bongard, J. (2006). How the Body Shapes the Way We Think: A New View of Intelligence. MIT Press.
  58. Russell, S., Dewey, D., & Tegmark, M. (2021). Research Priorities for Robust and Beneficial Artificial Intelligence. AI Magazine, 36(4), 105-114.
  59. Santoro, A., Bartunov, S., Botvinick, M., Wierstra, D., & Lillicrap, T. (2016). Meta-Learning with Memory-Augmented Neural Networks. Proceedings of the 33rd International Conference on Machine Learning (ICML), 1842-1850.
  60. Santoro, A., Bartunov, S., Botvinick, M., Wierstra, D., & Lillicrap, T. (2016). Meta-Learning with Memory-Augmented Neural Networks. Proceedings of the 33rd International Conference on Machine Learning (ICML), 1842-1850.
  61. Searle, J. R. (1980). Minds, Brains, and Programs. Behavioral and Brain Sciences, 3(3), 417-424.
  62. Sheng, E. (2023). Bias in Generative Language ModelsarXiv.

  63. Strubell, E. (2019). Energy and Policy Considerations for Deep Learning in NLParXiv.

  64. Turrigiano, G. (2008). The Self-Tuning Neuron: Synaptic Scaling of Excitatory SynapsesCell.

  65. Varela, F. J., Thompson, E., and Rosch, E. (2017) The embodied mind, revised edition: Cognitive science and human experience. MIT press.
  66. Wang, P., Li, L., Chen, J., & Zhang, X. (2023). Reasoning with Language Model Prompting: A Survey. arXiv preprint arXiv:2212.09597.
  67. Wei, J., et al. (2022). Emergent Abilities of Large Language ModelsarXiv.

Outros posts

Plataformas: Regular? Por quê? E como, aqui?

Introdução No mundo contemporâneo, as plataformas digitais tornaram-se centrais para a economia, a comunicação e a vida social. Empresas como Google, Facebook, Amazon e Tencent

A “extrema digital”

Vivemos em uma era de transformações profundas na maneira como interagimos, nos comunicamos e participamos da vida política. O advento do espaço figital – uma

O Atentado

O atentado contra Donald Trump em 13 de julho de 2024 marca um dos episódios mais dramáticos na história recente da política americana. Este incidente 

I³ : Innovation × Irrationality = Impact

Abstract This paper introduces the I³ framework (Irrationality × Innovation = Impact), a novel paradigm for driving breakthrough innovation and sustainable competitive advantage in platform

Carl Sagan, a internet e o bostejo

Vivemos em uma era de interconectividade sem precedentes, onde a informação se propaga em uma velocidade espantosa através das redes sociais e outros meios digitais.

EFEITOS de REDE

Este post é um índice de leitura dos textos da série “Efeitos de Rede e Ecossistemas Figitais”, com a co-autoria de André Neves. O texto

O Risco dos Manifestos

Um manifesto é sempre algo [muito] arriscado. Porque um manifesto expressa uma insatisfação com a realidade estabelecida, imediata, ao nosso redor. Um manifesto  não é

IA, no blog: Sugestões de Leitura

Se você está procurando textos sobre IA por aqui… Comece pela série E AÍ… IA: o primeiro texto, Introdução, está no link… tinyurl.com/2zndpt3r; o segundo,

E AÍ… IA [III]

Mas IA, de onde vem, pra onde vai?…   No futuro, há três tipos de inteligência: individual, social e artificial. E as três já são

E AÍ… IA [II]

Trabalho, Emprego e IA   Há uma transformação profunda do trabalho e da produção, como parte da transformação figital dos mercados, da economia e da

EFEITOS DE REDE E ECOSSISTEMAS FIGITAIS [XV]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

E AÍ, IA… [I]

IA fará com que todos sejam iguais em sua capacidade de serem desiguais. É o maior paradoxo desde que Yogi Berra disse… ‘Ninguém mais vai

Efeitos de Rede e Ecossistemas Figitais [XII]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [xi]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [x]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [ix]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [vi]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [v]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [iv]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

chatGPT: cria ou destrói trabalho?

O potencial de relevância e impacto inovador de transformadores [veja A Grande Transformação dos Transformadores, em bit.ly/3iou4aO e ChatGPT is everywhere. Here’s where it came

A Grande Transformação dos Transformadores

Um transformador, na lembrança popular, era [ainda é] a série de filmes [Transformers, bit.ly/3Qp97cu] onde objetos inanimados, inconscientes e -só por acaso- alienígenas, que existiam

Começou o Governo. Cadê a Estratégia?

Estamos em 02/01/2023. Ontem foram as posses e os discursos. Hoje começam a trabalhar um novo Presidente da República, dezenas de ministros e ainda serão

23 anotações sobre 2023 [xxiii]

Este é o 23° de uma série de textos sobre o que pode acontecer, ou se tornar digno de nota, nos próximos meses e poucos

23 anotações sobre 2023 [xxii]

Este é o 22° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xxi]

Este é o 21° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xx]

Este é o 20° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xix]

Este é o 19° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xviii]

Este é o 18° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xvii]

Este é o 17° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xvi]

Este é o 16° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xv]

Este é o 15° de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [xiv]

Este é o décimo quarto de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se

23 anotações sobre 2023 [xiii]

Este é o décimo terceiro de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se

23 anotações sobre 2023 [xii]

Este é o décimo segundo de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se

23 anotações sobre 2023 [xi]

Este é o décimo primeiro de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se

23 anotações sobre 2023 [x]

Este é o décimo de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [ix]

Este é o nono de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [viii]

Este é o oitavo de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [vii]

Este é o sétimo de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [vi]

Este é o sexto de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [v]

Este é o quinto de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [iv]

Este é o quarto de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [iii]

Este é o terceiro de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [ii]

Este é o segundo de uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar

23 anotações sobre 2023 [i]

Esta é uma série de textos curtos, de uns poucos parágrafos e alguns links, sobre o que pode acontecer, ou se tornar digno de nota,

Efeitos de Rede e Ecossistemas Figitais [ii]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

Efeitos de Rede e Ecossistemas Figitais [i]

Uma série, aqui no blog [o primeiro texto está em… bit.ly/3zkj5EE, o segundo em bit.ly/3sWWI4E, o terceiro em bit.ly/3ycYbX6, o quarto em… bit.ly/3ycyDtd, o quinto

O Metaverso, Discado [4]

Este é o quarto post de uma série dedicada ao metaverso. É muito melhor começar lendo o primeiro [aqui: bit.ly/3yTWa3g], que tem um link pro

O Metaverso, Discado [3]

Este é o terceiro post de uma série dedicada ao metaverso. É muito melhor começar lendo o primeiro [aqui: bit.ly/3yTWa3g], que tem um link pro

O Metaverso, Discado [2]

Este é o segundo post de uma série dedicada ao metaverso. É muito melhor ler o primeiro [aqui: bit.ly/3yTWa3g] antes de começar a ler este aqui. Se puder, vá lá, e volte aqui.

O Metaverso, Discado [1]

O metaverso vai começar “discado”. E isso é bom. Porque significa que vai ser criado e acontecer paulatinamente. Não vai rolar um big bang vindo

chega de reuniões

um ESTUDO de 20 empresas dos setores automotivo, metalúrgico, elétrico, químico e embalagens mostra que comportamentos disfuncionais em REUNIÕES [como fugir do tema, reclamar, criticar…

Definindo “o” Metaverso

Imagine o FUTEBOL no METAVERSO: dois times, A e B, jogam nos SEUS estádios, com SUAS bolas e SUAS torcidas. As BOLAS, cada uma num

Rupturas, atuais e futuras,
no Ensino Superior

Comparando as faculdades com outras organizações na sociedade,percebe-se que sua peculiaridade mais notável não é seu produto,mas a extensão em que são operadas por amadores.

O que é Estratégia?

A primeira edição do Tractatus Logico-Philosophicus [TLP] foi publicada há exatos 100 anos, no Annalen der Naturphilosophie, Leipzig, em 1921. Foi o único livro de

O Brasil Tem Futuro?

Uma das fases mais perigosas e certamente mais danosas para analisar e|ou entender o nosso país é a de que “O Brasil é o país

Os Velhos Envelopes, Digitais

Acho que o último envelope que eu recebi e não era um boleto data da década de 1990, salvo uma ou outra exceção, de alguém

Houston, nós temos um problema…

Este texto é uma transcrição editada de uma intervenção no debate “De 1822 a 2022 passando por 1922 e imaginando 2122: o salto [?] da

Pessoas, Games, Gamers, Cavalos…

Cartas de Pokémon voltaram à moda na pandemia e os preços foram para a estratosfera. Uma Charizard holográfica, da primeira edição, vale dezenas de milhares

As Redes e os Currais Algorítmicos

Estudos ainda limitados[1] sobre política e sociedade mostram que a cisão entre centro [ou equilíbrio] e anarquia [ou caos] é tão relevante quanto a divisão

O Trabalho, em Transição

Trabalho e emprego globais estão sob grande impacto da pandemia e da transformação digital da economia, em que a primeira é o contexto indesejado que

O ano do Carnaval que não houve

Dois mil e vinte e um será, para sempre, o ano do Carnaval que não houve. Quem sentirá na alma são os brincantes para quem

Rede, Agentes Intermediários e Democracia

Imagine um provedor de infraestrutura e serviços de informação tomando a decisão de não trabalhar para “um cliente incapaz de identificar e remover conteúdo que

21 anotações sobre 2021

1 pode até aparecer, no seu calendário, que o ano que vem é 2021. mas não: é 2025. a aceleração causada por covid19, segundo múltiplas

A Humanidade, em Rede

Redes. Pessoas, do mundo inteiro, colaborando. Dados, de milhares de laboratórios, hospitais, centros de pesquisa e sistemas de saúde, online, abertos, analisados por sistemas escritos

tecnologia e[m] crises

tecnologia, no discurso e entendimento contemporâneo, é o mesmo que tecnologias da informação e comunicação, TICs. não deveria ser, até porque uma ponte de concreto

o que aconteceu
no TSE ontem?

PELA PRIMEIRA VEZ em muitos anos, o BRASIL teve a impressão de que alguma coisa poderia estar errada no seu processo eleitoral, e isso aconteceu

CRIAR um TEMPO
para o FUTURO

em tempos de troca de era, há uma clara percepção de que o tempo se torna mais escasso. porque além de tudo o que fazíamos

Duas Tendências Irreversíveis, Agora

O futuro não acontece de repente, todo de uma vez. O futuro é criado, paulatinamente, por sinais vindos de lá mesmo, do futuro, por caminhos

futuro: negócios e
pessoas, figitais

em tempos de grandes crises, o futuro, às vezes mais do que o presente, é o centro das preocupações das pessoas, famílias, grupos, empresas e

Silvio Meira é cientista-chefe da TDS.company, professor extraordinário da CESAR.school e presidente do conselho do PortoDigital.org

contato@tds.company

Rua da Guia, 217, Porto Digital Recife.

tds.company
somos um negócio de levar negócios para o futuro, nosso objetivo é apoiar a transformação de negócios nascentes e legados nas jornadas de transição entre o presente analógico e o futuro digital.

strateegia
é uma plataforma colaborativa de estratégia digital para adaptação, evolução e transformação de negócios analógicos em plataformas e ecossistemas digitais, desenvolvido ao longo de mais de uma década de experiência no mercado e muitas na academia.