Ele é famoso principalmente por ser o autor do livro 2001: Uma Odisseia no Espaço.
Mas também formulou as chamadas Leis de Clarke, sobre a relação entre o homem e a tecnologia.
A terceira lei é talvez a mais interessante: “Qualquer tecnologia suficientemente avançada é indistinguível da magia.”
Seria o caso desta tecnologia? O ChatGPT oferece perigo?
O sucesso do ChatGPT é incrível. A OpenAI lançou o ChatGPT em 30 de novembro de 2022.
Em janeiro de 2023, já tinha 100 milhões de usuários – o TikTok levou nove meses para atingir esse patamar e o Instagram, dois anos e meio – com 13 milhões de usuários únicos utilizando a ferramenta diariamente.
As empresas também aderiram rapidamente ao hype.
Em fevereiro, a ResumeBuilder.com pesquisou mil líderes empresariais dos EUA para ver quantas empresas já usavam ou planejavam usar o ChatGPT.
Os resultados são muito esclarecedores:
Recentemente, entrei no site da ferramenta e fiz uma solicitação aleatória. A resposta veio em segundos, e pensei: “Uau!, realmente parece magia!!!”.
Mas não se engane – só parece…
Ela trabalha de uma forma extremamente eficiente – consegue coletar e estruturar informações relativas às áreas em que as empresas atuam muito rapidamente. mas não necessariamente eficaz.
Além disso, definitivamente, não se trata de magia. Sem dúvida, é uma tecnologia avançada que oferece benefícios incríveis.
1. Geração de conteúdo original: a IA generativa pode criar conteúdo original e único, como imagens e música, em vez de simplesmente reconhecer ou classificar o que já existe.
2. Capacidade de adaptação: a IA generativa pode se adaptar a diferentes tarefas e dados de entrada, permitindo que ela seja utilizada em uma ampla gama de aplicações.
3. Aprendizado autônomo: a IA generativa pode aprender com seus próprios erros e iterar para melhorar seus resultados, sem a necessidade de intervenção humana.
4. Criatividade: a IA generativa pode ser utilizada para gerar ideias e soluções criativas que seriam difíceis ou impossíveis de serem produzidas por humanos.
5. Potencial para inovação: a IA generativa pode ser usada para criar novos produtos, serviços e experiências que não existiam anteriormente.
Mas a “magia” propriamente dita vai exigir que as empresas desenvolvam suas próprias soluções, sejam baseadas em APIs, plug-ins ou customizando algum serviço pago.
Para garantir que as respostas sejam eficazes, ou seja, atendam às necessidades do consumidor e ao interesse da empresa, é preciso “treinar” a sua IA generativa. O que não é tão simples, acredite.
O “treinamento” de um ChatGPT ou de qualquer ferramenta similar significa garimpar as informações, usando web scraping e pesquisas em datasets públicos e criar seu próprio dataset.
Em seguida, fazer o pré-processamento – coisas como remover informações relevantes (HTML tags, por exemplo), tokenizar os textos, remover duplicatas etc. -, criar um ambiente para treinamento e refinar o modelo até estar pronto para ser publicado.
E não pense que acabou. O modelo é dinâmico e precisa ser monitorado permanentemente.
Resumindo, é fantástico. Mas é complicado de montar. E pode até ser muito caro para manter.
Antes até do ChatGPT, uma pequena startup chamada Latitude estava encantando os consumidores com seu jogo AI Dungeon, que permitia que eles usassem inteligência artificial para criar contos fantásticos com base em seus prompts.
Mas, à medida que o AI Dungeon se tornou mais popular, o custo começou a disparar.
O software de geração de texto do AI Dungeon era alimentado pela tecnologia da OpenAI, laboratório de pesquisa de IA apoiado pela Microsoft.
Quanto mais pessoas jogavam o AI Dungeon, maior era a conta que a Latitude tinha que pagar para a OpenAI.
Para agravar a situação, profissionais de marketing de conteúdo começaram a usar o AI Dungeon para gerar textos promocionais, um uso que sua equipe nunca previu, mas que acabou aumentando a conta da empresa.
No pico da utilização, em 2021, a Latitude estava gastando quase US$ 200 mil por mês para acompanhar os milhões de consultas de usuários que processava todos os dias.
No final daquele ano, a Latitude passou a usar um software mais barato, oferecido pela AI21 Labs, e os custos caíram para menos de US$ 100 mil por mês.
Além disso, a empresa passou a cobrar dos jogadores uma assinatura mensal para recursos de IA mais avançados para ajudar a reduzir o custo.
A verdade desagradável por trás da “magia” é que o custo para desenvolver e manter um software de IA generativa pode ser extraordinariamente alto, e é um custo estrutural que difere dos booms de computação anteriores.
Mesmo quando o software é construído ou treinado, ele ainda requer uma enorme capacidade de computação para executar grandes modelos de linguagem porque eles fazem bilhões de cálculos toda vez que retornam uma resposta a um prompt.
Em comparação, a exibição de aplicativos ou páginas da web exige muito menos cálculos.
Embora os processadores de computador tradicionais possam executar modelos de aprendizado de máquina, eles são lentos.
A maior parte do treinamento e da inferência agora ocorre em processadores gráficos, ou GPUs, que foram inicialmente destinados a jogos 3D, mas se tornaram o padrão para aplicativos de IA porque podem fazer muitos cálculos simples simultaneamente.
Tem mais gente com o pé atrás em relação aos avanços da inteligência artificial – pessoas como Elon Musk, Steve Wozniak e outros milhares de líderes mundiais na área de tecnologia.
A preocupação deles, porém, não é com a eficácia ou com os custos das operações.
Vai bem mais longe.
Eles se preocupam com os riscos profundos para a sociedade e a humanidade que os sistemas de IA com inteligência competitiva humana podem representar.
Em uma carta aberta que produziram e publicaram, afirmaram que:
“a IA avançada pode representar uma mudança profunda na história da vida na Terra e deve ser planejada e gerenciada com cuidados e recursos proporcionais”.
E que, por isso, todos os laboratórios devem fazer uma pausa pública e verificável no treinamento de sistemas mais poderosos do que o GPT4 por no mínimo por seis meses.
Nesse período, devem desenvolver e implementar em conjunto um pool de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA.
Desde que sejam rigorosamente auditados e supervisionados por especialistas externos independentes.
Esses protocolos devem garantir que os sistemas que adiram a eles sejam seguros além de qualquer dúvida razoável.
Na verdade, não. O ChatGPT não oferece perigo, desde que seja aplicado para aprimorar suas estratégias de marketing.
No entanto, vamos continuar de olho nos atuais e nos próximos desenvolvimentos dessa e de outras tecnologias avançadas.
Assim, nós que os clientes estejam preparados para aproveitar o máximo delas.
E vamos continuar contando por aqui essa história que está se desenrolando bem na nossa frente.
Qualquer dúvida ou sugestão, estou à disposição: elcio@aodigital.com.br.
Google vai oferecer datasets de terceiros na plataforma Vertex AI A plataforma Vertex AI do Google permitirá que os usuários...