Experience On / AI

Uso de Chatbots de IA X Google: compartilhamento de dados

por Elcio Santos - 26/06/2023

O uso de chatbots de inteligência artificial (IA) tem se tornado cada vez mais comum, oferecendo interações rápidas e eficientes com os usuários. No entanto, surgem preocupações sobre o compartilhamento de dados ao utilizar esses chatbots. Acesse e confira mais!

O uso de chatbots de IA – Inteligência Artificial  – tem se tornado cada vez mais comum, oferecendo interações rápidas e eficientes com os usuários.

No entanto, surgem preocupações sobre o compartilhamento de dados ao utilizar esses chatbots, especialmente quando se trata do gigante da tecnologia, Google.

Recentemente, o Google aconselhou seus funcionários sobre o uso do uso de chatbots de IA em materiais confidenciais, destacando a importância da proteção de informações sensíveis.

Essa medida está alinhada com uma política de longa data da empresa, visando salvaguardar a privacidade e a segurança dos dados dos usuários.

Neste artigo, exploraremos mais detalhes sobre esse assunto e as implicações do compartilhamento de dados em relação ao uso dos chatbots de IA do Google.

Uso de Chatbots de IA X Google: com o que eu devo me preocupar?

Uso de Chatbots de IA

Os chatbots e a inteligência artificial generativa

Os chatbots, incluindo Bard e ChatGPT, utilizam a inteligência artificial generativa para manter conversas com os usuários e responder a diversas solicitações.

No entanto, o uso da Inteligência Artificial generativa em chatbots também traz consigo alguns perigos e desafios significativos.

Neste caso, há o risco de os chatbots produzirem respostas inadequadas ou até mesmo conteúdo ofensivo, uma vez que eles são treinados com base em grandes volumes de dados disponíveis na internet.

Isso inclui informações não verificadas ou tendenciosas, a falta de controle sobre o processo de geração de respostas ou até mesmo a manipulação de usuários, prejudicando a confiabilidade e a segurança das interações.

Alerta sobre o uso direto de código de computador

A Alphabet também alertou seus engenheiros para evitarem o uso direto do código de computador gerado pelos chatbots, de acordo com relatos de algumas pessoas.

O alerta para evitar o uso direto do código de computador gerado pelos chatbots é motivado por alguns motivos importantes.

Primeiramente, o código gerado pelos chatbots pode conter erros ou vulnerabilidades de segurança que podem comprometer a integridade dos sistemas ou abrir brechas para ataques cibernéticos.

Além disso, o uso direto desse código pode resultar em respostas imprecisas ou inadequadas, afetando a qualidade das interações com os usuários e prejudicando a experiência geral do usuário com o chatbot de IA.

Resposta da empresa sobre o Bard e o código indesejado

Quando questionada sobre o Bard e o código indesejado gerado, a empresa reconheceu que o chatbot pode ocasionalmente oferecer sugestões de código indesejadas.

No entanto, ela ressaltou que o Bard ainda é útil e auxilia os programadores em suas tarefas.

Embora existam situações em que o código gerado possa não ser ideal, o chatbot continua sendo uma ferramenta valiosa para os desenvolvedores, proporcionando suporte e agilizando o processo de programação.

Contudo, a empresa enfatizou a importância de utilizar o Bard de maneira criteriosa e realizar verificações adicionais para garantir a qualidade e a segurança do código resultante.

Transparência e limitações da tecnologia pelo Google

O Google demonstrou seu compromisso em ser transparente ao abordar as limitações de sua tecnologia.

Isso significa que a empresa reconhece e divulga de forma clara quais são as restrições e áreas em que sua tecnologia pode não atingir o nível desejado de desempenho ou eficiência.

Ao ser transparente, o Google busca fornecer aos usuários e desenvolvedores uma compreensão realista das capacidades e limitações de suas soluções de inteligência artificial, permitindo que tomem decisões informadas ao utilizá-las.

Essa abordagem visa estabelecer uma relação de confiança e melhorar a qualidade das interações com suas tecnologias.

Cautela do Google para evitar danos aos negócios

O Google adota uma postura cautelosa para evitar possíveis danos aos seus negócios diante da concorrência com o ChatGPT.

A empresa busca proteger sua reputação, manter a confiança dos clientes e preservar sua posição no mercado, levando em consideração as preocupações e desafios apresentados pelo cenário competitivo.

Bilhões de dólares em investimentos e potencial de receita

A corrida entre o Google, OpenAI e Microsoft Corp (MSFT.O) pelo mercado dos chatbots envolve bilhões de dólares em investimentos e uma receita potencialmente significativa proveniente de publicidade e programas de IA em nuvem.

Padrão de segurança: alertas sobre programas de bate-papo públicos

A cautela do Google em relação ao uso de programas de bate-papo públicos reflete uma tendência geral no setor, em que empresas estão adotando um padrão de segurança mais rigoroso.

Essa prática inclui a conscientização e o alerta aos funcionários sobre os riscos associados ao uso desses programas, visando proteger informações confidenciais e minimizar possíveis vulnerabilidades na segurança dos dados.

Proteções para chatbots de IA adotadas por outras empresas

Empresas como Samsung, Amazon.com e Deutsche Bank criaram proteções para seus chatbots de IA.

A Apple também tomou medidas nesse sentido, embora não tenha respondido aos pedidos de comentários.

Uso de chatbots de IA por profissionais

De acordo com uma pesquisa realizada pelo site de relacionamento Fishbowl, cerca de 43% dos profissionais estavam utilizando o ChatGPT ou outras ferramentas de IA desde janeiro,

Muitas vezes, sem informar seus superiores, o que não é recomendável.

Desenvolvimento de software para lidar com preocupações

Como resposta às preocupações relacionadas ao uso de chatbots de IA, algumas empresas, incluindo a Cloudflare, têm desenvolvido software específico para enfrentar esses desafios.

Essas soluções visam ajudar as empresas a controlar e proteger seus dados, permitindo que elas identifiquem e restrinjam o fluxo externo de informações confidenciais.

Por meio do uso dessas ferramentas, as empresas podem marcar e aplicar restrições para garantir que determinados dados sensíveis não sejam expostos ou compartilhados inadvertidamente.

Essa abordagem auxilia na manutenção da segurança e privacidade dos dados, mitigando os riscos associados ao uso de chatbots de IA.

Oferta de ferramentas de conversação por parte do Google e Microsoft

O Google e a Microsoft estão oferecendo ferramentas de conversação para clientes corporativos, com preços mais altos, porém sem coleta de dados em modelos de IA públicos.

Histórico de conversas e opção de exclusão

O Bard e o ChatGPT salvam o histórico de conversas dos usuários por padrão, mas os usuários têm a opção de excluí-los completamente.

Conclusão

Em suma, a preocupação com a segurança também é um padrão observado em várias empresas, que alertam sobre o uso de programas de bate-papo públicos.

Para lidar com essas preocupações, algumas empresas têm desenvolvido software específico, como a Cloudflare, que permite o controle e a restrição do fluxo externo de dados sensíveis.

Essas medidas visam proteger a privacidade e a segurança dos usuários, garantindo uma melhor utilização dos chatbots de IA.

No cenário em constante evolução da inteligência artificial, é essencial que as empresas continuem aprimorando suas abordagens de segurança e proteção de dados.

Assim, as empresas podem enfrentar os desafios e garantir uma experiência confiável e segura para os usuários.

Fonte: Reuters

Descomplique já

Fale com um dos nossos especialistas em Estratégia do Consumidor