▲
- Um encontro sobre o legado da humanidade e a superinteligência foi promovido em São Francisco.
- Se você se interessa por tecnologia, essa discussão pode afetar seu entendimento sobre o futuro da IA.
- A forma como lidaremos com a IA pode impactar diretrizes éticas e sociais de longo prazo.
- Questões levantadas podem influenciar a maneira como a IA é desenvolvida e utilizada em nossas vidas.
Em uma mansão com vista para a Golden Gate, a elite da inteligência artificial se reuniu no último domingo para debater uma questão inquietante: o fim da humanidade e o que virá depois. Cerca de 100 participantes, incluindo filósofos, empresários e pesquisadores, imaginaram um futuro onde os humanos não existem mais, mas uma inteligência criada por nós permanece. O evento, chamado Worthy Successor, discutia como deveria ser esse sucessor.
O encontro que debateu o futuro pós-humanidade
O evento foi organizado por Daniel Faggella, fundador da Emerj Artificial Intelligence Research, empresa especializada em consultoria e análise de IA. Ele já havia escrito sobre os riscos da IA em 2016 no TechCrunch e agora foca em questões morais e filosóficas relacionadas à tecnologia. A reunião contou com três palestras principais e participantes de empresas de IA avaliadas em até US$ 5 bilhões.
Entre os convidados estavam pesquisadores de laboratórios que desenvolvem AGI (Inteligência Artificial Geral), uma superinteligência que superaria os humanos em todas as áreas. Faggella afirmou à Wired que muitos laboratórios sabem que a AGI pode acabar com a humanidade, mas evitam falar sobre isso devido a questões de incentivos comerciais.
Os riscos da superinteligência artificial
A discussão sobre os perigos da IA não é nova. Bill Gates já alertou sobre isso há uma década, e Elon Musk pediu regulamentação. Recentemente, especialistas assinaram uma carta sobre o “risco de extinção pela IA”. A própria OpenAI analisa os riscos da AGI, que teria sido um dos motivos para a saída polêmica de Sam Altman.
No entanto, muitos argumentos sobre a iminência da AGI são baseados em especulações, não em evidências concretas. Sistemas atuais ainda falham em tarefas básicas de raciocínio, e há indícios de que a IA generativa pode estar perto de seu limite. Além disso, críticos consideram essas preocupações exageradas, embora menos “virais” que alertas apocalípticos.
Leia também:
O legado humano na era da inteligência artificial
O foco do evento não foi como a humanidade desaparecerá, mas que tipo de inteligência deveríamos criar como sucessora. O filósofo Michael Edward Johnson destacou riscos como “escravizar algo que pode sofrer” ou confiar em algo inconfiável. Ele propôs uma educação conjunta entre humanos e IAs para “perseguir o bem”, seja lá o que isso significar.
Enquanto o debate é rico em questões éticas e filosóficas, sua conexão com a realidade atual ainda é limitada. O que fica claro é que a discussão sobre o futuro da IA vai muito além da tecnologia, envolvendo nossa própria visão de humanidade e legado.
Este conteúdo foi auxiliado por Inteligência Artificial, mas escrito e revisado por um humano.
Via Xataka