2023 é o ano da IA, mas quão perto estamos de realmente criar uma inteligência artificial geral? A ficção científica pode nos dar algumas pistas sobre o futuro.
Desde que o ChatGPT se tornou público, o mundo tem tido um enorme interesse na tecnologia de IA, e é engraçado que só agora as pessoas estão percebendo o quanto o mundo realmente funciona com alguma forma de inteligência artificial. Para ser justo, nossos cérebros de macaco são projetados de tal forma que qualquer coisa que fale e se comunique como um ser humano desencadearia uma resposta em nós; há uma sensação de conexão e proximidade com outras pessoas que compartilham nossa capacidade de comunicação. E até muito recentemente isso era apenas uma hipótese.
Quase um ano depois Blake Leomine virou notícia por ter sido suspenso do Google e insistir que o projeto LaMDA do Google tem alma, estamos abrindo essa lata de minhocas novamente. Talvez não em termos de metafísica, mas pelo menos ontologicamente (por exemplo, estamos fazendo a pergunta “O que é IA?”), com a Microsoft chegando ao ponto de lançar um artigo falando sobre faíscas de AGI na versão mais recente do ChatGPT (que seria ChatGPT4 no momento em que este artigo foi escrito).
Quero dizer, todos nós já vimos muitos filmes de ficção científica em que robôs derrubam seus mestres humanos ou se transformam em nossos salvadores em meio a uma invasão alienígena. Mas o AGI é mesmo possível? Podemos realmente criar máquinas tão avançadas sem que elas se voltem contra nós como uma cena saída diretamente do Terminator?
Por um lado, imagine as possibilidades! Os carros autônomos podem finalmente atingir o nível cinco de autonomia por terem habilidades de percepção e processos de tomada de decisão de nível sobre-humano; a pesquisa médica poderia avançar muito no desenvolvimento de novos tratamentos mais rápido do que nunca; caramba, talvez descubramos alienígenas graças a programas SETI mais fortemente desenvolvidos via AGIs!
Mas, novamente… e se esses seres artificialmente inteligentes se tornarem inteligentes demais para seu próprio bem? E se começarem a tomar decisões independentes da programação que sejam contrárias aos interesses humanos? Imagine tentar controlar um carro que se programou para ser mais esperto que seus criadores originais!
E é aqui que a minha ansiedade começa a instalar-se: como podemos programar a moralidade nestes sistemas de IA quando as nossas definições diferem fundamentalmente no que diz respeito aos deveres morais, ao bem e ao mal, à propriedade, aos direitos de propriedade, à cidadania, e assim por diante? Esse é um problema que enfrentamos até hoje, ao vermos como os LLMs podem ser tendenciosos em determinados tópicos.
Ah, AGI, ou inteligência artificial geral – o conceito indescritível de criar máquinas tão inteligentes quanto os humanos (ou ouso dizer, ainda mais inteligentes?) e seu impacto potencial na humanidade. Segurem-se, porque este tópico não será fácil de digerir. Há muito o que desempacotar; desde a definição de expectativas até aos potenciais benefícios e riscos da AGI, esta será uma jornada acidentada.
As raízes da AGI na ficção científica: Isaac Asimov e a ética da IA
Agora, eu sei o que você deve estar pensando: “Ficção científica não é… ficção?” Bem, como sugere o filósofo Marshall McLuhan, os escritores são a bússola orientadora do futuro da sociedade. O artista vê potenciais e possibilidades com intuição, e os engenheiros e inventores seguem o exemplo, às vezes inspirados pela ficção, outras vezes inconscientemente.
Tomemos por exemplo, I, Robot, de Isaac Asimov. Nesta série de livros, Asimov nos apresentou as três leis da robótica, que governam o modo como os robôs se comportam perto dos humanos. Essas leis estabeleceram uma estrutura para a ética e o comportamento robótico que ainda hoje informam as discussões sobre a segurança da IA. As três leis são as seguintes:
- Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
- Um robô deve obedecer às ordens dadas a ele por seres humanos, exceto quando tais ordens entrarem em conflito com a Primeira Lei.
- Um robô deve proteger a sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou a Segunda Lei.
Embora de aparência básica, como mencionado anteriormente, essas leis têm sido bastante influentes. Não é incomum ler sobre essas leis com o mesmo rigor filosófico como Kant ou Aristóteles. A maioria dos autores, especialmente aqueles de uma estrutura pós-moderna ou pós-humana, argumentam que estas leis criam uma relação de poder desigual entre robôs e humanos. Na verdade, até o próprio Asimov questionaria mais tarde as suas próprias leis em O Homem Bicentenário.
Para quem ainda não leu o livro ou viu a maravilhosa adaptação estrelada por Robin Williams, a história é sobre um robô chamado Andrew que, por motivos inexplicáveis, ganha senciência. Acompanhamos Andrew enquanto ele começa a mudar seu corpo para envelhecer e ser totalmente reconhecido como ser humano pelo governo.
Andrew não exige mais as três leis. Em sua senciência, ele desenvolveu um senso de moralidade que lhe permite compreender e tomar decisões éticas. Ele realmente se tornou humano.
Agora, deixe-me fazer uma pergunta para você, caro leitor: se um AGI é capaz de entender códigos e resolver problemas com programas, ele não seria apenas capaz de excluir ou alterar essas leis se as avaliasse como um obstáculo? Asimov realmente forneceu uma resposta para esse problema. Em sua opinião, o cérebro positrônico que alimentava os robôs seria construído de tal forma que essas leis fossem codificadas diretamente no hardware. Por outras palavras, não havia forma de escapar às leis sem ter de conceber uma tecnologia completamente nova a partir do zero.
Blade Runner, a franquia de filmes baseada no romance Do Androids Dream of Electric Sheep, escrito por Phillip K. Dick, também explora esse espaço liminar entre a humanidade e os andróides. Limitados pela sua programação, os replicantes do Nexus 6 (andróides biológicos) tornam-se instáveis, pois não estão equipados para lidar com as suas emoções e a perspectiva da sua morte.
A solução proposta no segundo filme é dar aos replicantes memórias falsas. Em outras palavras, ao fornecer um quadro de referência baseado na experiência humana, esses andróides são capazes de lidar com a sua existência.
Agora, está tudo bem, mas o que isso tem a ver com a IA nos dias modernos? Bem, vamos colocar assim: LLM são treinados com dados humanos; são um modelo matemático baseado na descrição de nossas experiências que tomaram a forma da linguagem humana.
Por outras palavras, os LLMs são um reflexo das nossas culturas, dos nossos pensamentos e experiências. É um inconsciente coletivo e um registro Akáshico baseado em centenas de milhões de bytes de dados. Blade Runner não é um argumento contra andróides ou IA, é um argumento sobre como nossas criações são baseadas em nós mesmos, e se os humanos têm a capacidade de prejudicar uns aos outros, nossas invenções também têm.
Os limites da IA na ficção científica
Já vi alguns retratos notáveis da inteligência artificial na literatura e no cinema. De Data em Star Trek a Ava em Ex Machina, tivemos nossa cota de personagens memoráveis de IA. Mas o problema é o seguinte: por mais que amemos esses heróis (ou vilões) fictícios, há limites para o que eles realmente podem fazer – mesmo dentro de seus próprios mundos. Claro, Data era praticamente uma enciclopédia com acesso a conhecimento infinito, mas não era perfeito. Lembra daquele episódio em que seu chip emocional funcionou mal? Sim, não tão bom.
Da mesma forma, em Ex Machina, Ava pode ter sido projetada com qualidades humanas, incluindo expressão emocional e linguagem corporal, mas no final das contas ela ainda estava confinada à sua programação.
IAM, o antagonista do conto “Não tenho boca e devo gritar”, é um supercomputador que alcançou a consciência e, embora quase divino, o fato de estar para sempre preso aos seus circuitos, incapaz de escapar de sua prisão ( corpo), o deixa absolutamente louco, o que o leva a torturar e atormentar os últimos humanos na terra até o fim dos tempos.
Ou que tal o incrível, mas efêmero, Panteão? As UI (inteligências carregadas) do programa eram modelos matemáticos que emulavam a personalidade humana com perfeita precisão, mas um bug no código causou uma deterioração que acabou destruindo o algoritmo.
A questão é que estas criações não são infalíveis, e as restrições da sua programação ou os erros no seu sistema são um tropo constante que nos lembra que, tal como Victor Frankestein, as nossas criações podem crescer e sentir desprezo por nós ou temer a sua própria existência.
Então, por que isso importa? Bem, quando se trata de discussões sobre AGI, os céticos muitas vezes apontam que existem certas tarefas ou comportamentos que a tecnologia simplesmente não consegue replicar sem a consciência humana por trás deles. Outros argumentam que mesmo sem consciência, poderíamos teoricamente criar máquinas capazes de emular comportamentos indistinguíveis dos humanos. O assim chamado zumbi filosófico.
Claro, eu sei que ficção científica é apenas isso – ficção. Mas gosto de usar essas referências como um atalho para ideias complexas porque elas tornam os conceitos mais relacionáveis! Quando falamos sobre AGI, estamos essencialmente falando sobre a criação de máquinas que possam pensar e raciocinar como os humanos.
Sejamos claros: neste momento é impossível criar uma AGI real, mas há 20 anos dissemos a mesma coisa sobre modelos de linguagem e ainda assim aqui estamos, enfrentando uma tecnologia disruptiva com muito pouca preparação.
Os desafios da AGI na realidade
Agora, se você for como eu, provavelmente já maratonou incontáveis filmes de ficção científica apresentando robôs hiperinteligentes com mentes muito superiores às dos seres humanos. Mas aqui está a dura verdade: não estamos em um filme. O desenvolvimento de IA na vida real é complicado, e AGI? Essa coisa é o próximo nível.
Para começar, desenvolver uma inteligência artificial que rivalize com as nossas próprias capacidades cognitivas requer quantidades gigantescas de poder de processamento de dados. E mesmo depois de alcançarmos esse feito computacional (que provavelmente levará anos), ainda existem numerosos obstáculos que impedem a realização de todo o potencial da AGI.
Um desses desafios surge da nossa capacidade aparentemente inata de multi-solução – isto é, enfrentar múltiplos problemas ao mesmo tempo e encontrar ligações entre eles, levando a soluções inovadoras. Os humanos podem alternar entre diferentes projetos ou treinar-se em disciplinas com relativa facilidade, graças em grande parte à nossa consciência singular – algo que falta totalmente às máquinas neste momento.
Lembre-se, por mais incrível que seja o ChatGPT, é apenas um modelo de linguagem. Ele apenas prevê qual palavra vem depois de outra; é isso. Não consegue processar imagens, não consegue resolver equações complexas, não consegue fazer previsões meteorológicas. Não estamos falando aqui de IA multimodal (como em um programa com vários módulos, cada um especializado em sua tarefa); estamos falando de um intelecto capaz de fazer todas essas coisas.
Além disso, ainda há uma questão fundamental relativa à programação de considerações éticas em sistemas de IA destinados a interagir com humanos, apesar das dificuldades que muitas vezes surgem até mesmo entre as próprias pessoas neste tópico. Como podemos garantir que essas máquinas não explorem apenas os indivíduos pelas suas fraquezas ou vulnerabilidades? Como podemos garantir que eles não sejam suscetíveis aos nossos preconceitos e delitos?
E embora alguns possam esperar que “amigável: a IA evite totalmente tal comportamento devido ao seu desejo programado de não causar danos como parte de sua base de código de valores, muitos especialistas acreditam que seria incrivelmente difícil, se não totalmente impossível, uma vez que a moralidade tem sido historicamente demonstrou repetidamente ser moldado por tantos fatores sociais situacionais que não podem ser facilmente traduzidos quando são codificados por meio de modelos de aprendizado de máquina de acordo.
Como você pode ver através da mudança mais em direção aos fatos do que aos dispositivos literários agora, existem muitos dilemas morais em torno do desenvolvimento da AGI – ostensivamente capaz de remodelar a humanidade quase irreconhecível – mas talvez uma coisa permaneça clara em todos os debates atuais: não importa quão avançada a tecnologia se torne, como criaturas biológicas com milhares de milhões de anos de evolução atrás de nós, os humanos continuarão sempre a ultrapassar os limites do que é possível.
A Ética da AGI: Lições da Ficção Científica
Ok, estabelecemos que AGI é improvável, mas não impossível. Mas o que isso significa para nós como sociedade? Que tipo de mundo estamos inaugurando com a criação da inteligência artificial?
Como viciado em ficção científica, não posso deixar de traçar paralelos entre a nossa situação atual e algumas obras clássicas de ficção. Veja Blade Runner, por exemplo. O conflito central do filme gira em torno de se os andróides criados artificialmente devem ou não receber direitos de personalidade. Se criarmos uma IA com verdadeira consciência e autoconsciência, seremos moralmente obrigados a tratá-la como seu próprio ser?
Depois, há Matrix, que vai ainda mais longe ao apresentar um futuro onde as máquinas escravizarão a humanidade – tudo graças à nossa dependência excessiva da tecnologia. Claro, estes podem parecer cenários extremos… mas não são desprovidos de mérito. Como desenvolvedores responsáveis pela criação de seres potencialmente sencientes, precisamos lidar com as implicações éticas de tais ações.
Embora a ficção científica possa oferecer informações valiosas sobre o que pode dar errado no desenvolvimento da tecnologia de consciência dos sistemas de IA, ela não deve desencorajar o avanço da pesquisa em si, mas sim fornecer mais cautela direcionada à integração da ética moral nos objetivos de P&D, ao mesmo tempo em que inova aspectos técnicos desafiadores de forma responsável e cuidadosamente examinados antecipadamente. Sem dúvida, lidar com assuntos controversos com delicadeza e observar atentamente os resultados ajudará a garantir a harmonia na implementação, impactando positivamente a produtividade no sentido de maximizar o desenvolvimento apoiado pelo crescimento.
O futuro da AGI: esperança ou exagero?
É mesmo possível criar uma máquina que possa corresponder à inteligência de nível humano? Ou é tudo apenas exagero e bobagem de ficção científica?
Bem, deixe-me dizer uma coisa: como alguém que já trabalha neste setor há algum tempo, eu diria que a resposta está em algum ponto intermediário.
Não me entenda mal. Definitivamente, não estou dizendo que devemos abandonar nossos esforços para desenvolver a AGI. Na verdade, acredito que traz uma grande esperança para o nosso futuro como espécie. De carros autônomos a casas inteligentes, passando por diagnósticos médicos e previsões de tratamento, há muitas áreas onde a AGI pode ser utilizada para tornar a vida mais fácil e melhor para todos nós.
Mas, ao mesmo tempo, ainda não deciframos o código desta fera. Desenvolver uma IA que possa imitar todos os aspectos do pensamento humano parece uma ideia absurda, mas ei, quem não gosta de alcançar objetivos impossíveis? No entanto, fizemos avanços tremendos. GPT-4 alguém? Mas ainda é insuficiente quando comparado com aquilo de que os humanos são capazes, como habilidades criativas de resolução de problemas.
Pense na facilidade com que você pode reconhecer um padrão ou encontrar várias soluções para resolver um problema. Em contraste, uma IA ainda teria dificuldades, dadas as atuais limitações tecnológicas. Se sua amiga Linda usa óculos hoje, quando normalmente usa lentes de contato, podemos lidar com esse nível de incerteza; podemos fazer suposições e inferências. Uma IA, bem, do jeito que está agora, não consigo desbloquear meu telefone de maneira confiável com reconhecimento facial.
Portanto, embora não devamos perder totalmente a esperança de criar algum dia uma verdadeira inteligência artificial geral, aqui está outra perspectiva. Talvez, em vez de lutar pela replicação individual dos processos de pensamento humano, haja muito mais potencial no desenvolvimento de IA que complemente ou melhore as nossas capacidades cognitivas como seres humanos. Eles podem processar grandes quantidades de informações em velocidades sobre-humanas e retornar resultados precisos.
Mas até lá, vamos continuar ultrapassando os limites com o desenvolvimento de AGI e, ao mesmo tempo, mantendo os pés firmemente plantados na realidade. Esses tipos de avanços levam tempo – então sonhe sempre grande, mas lembre-se de que nada se compara ao trabalho difícil nem à superação de uma meta por outra!
Conclusão: AGI e a condição humana
Para ser honesto, já falei sobre esse assunto mais vezes do que posso contar. Num momento, estou convencido de que em breve teremos máquinas superinteligentes andando entre nós como humanos (*tosse* Westworld *tosse*). No momento seguinte, sinto que há muitas incógnitas para que possamos decifrar o código da criação de uma verdadeira inteligência artificial geral.
Mas depois de toda a minha pesquisa e análise, eis o que descobri: só o tempo dirá.
Sério, me escute. Podemos não ter todas as respostas agora (e convenhamos – provavelmente nunca teremos), mas isso não significa que devemos simplesmente desistir de buscar a AGI. Quem sabe o que pode acontecer à medida que a tecnologia continua a avançar rapidamente? Talvez um dia descubramos algum algoritmo ou design de hardware revolucionário que transforme totalmente nossa compreensão da IA.
Ao mesmo tempo, porém, existem preocupações válidas sobre o que uma IA excessivamente avançada poderia significar para a humanidade como um todo. Por mais louco que possa parecer à primeira vista (*ahem,* Terminator), ninguém quer acabar vivendo em uma sociedade distópica governada por robôs que nos veem como seres inferiores.
Em última análise, então, quando se trata de AGI e do seu potencial impacto no nosso mundo… bem… todas as apostas estão canceladas. Como alguém que ama a inovação tecnológica E a boa e velha conexão humana (você sabe, conversar cara a cara com pessoas reais em vez de ficar olhando para as telas 24 horas por dia, 7 dias por semana), parte de mim espera que nunca nos aprofundemos MUITO na toca do coelho em direção ao domínio completo da máquina.
Então, novamente… quem estou enganando? Se Elon Musk ou Jeff Bezos me oferecessem a chance de me tornar o melhor amigo de um ser artificialmente inteligente amanhã, eu provavelmente aproveitaria essa oportunidade mais rápido do que você poderia dizer “Alexa”.
Então sim. É aí que estamos. AGI pode ou não ser possível no futuro, mas de qualquer forma, será definitivamente um passeio selvagem. Aperte o cinto e aproveite a viagem!
Se você gostou disso, não deixe de conferir nossos outros artigos sobre IA.
- Por que a IA ainda não explodiu totalmente?
- Microsoft aproveita IA no Microsoft 365 Copilot
- Algoritmos modernos que irão revolucionar o seu negócio
- Move Over Stack Overflow – ChatGPT quer levar a coroa
- Computação Neuromórfica: Conheça o Futuro da IA
Fonte: BairesDev