Apple restringe uso do ChatGPT pelos funcionários, por risco de vazamento
Empresas têm usado a tecnologia para tarefas rotineiras no trabalho, como escrever e-mails e fazer material de marketing, além de usá-la para codificar softwares
A Apple restringiu o uso do ChatGPT e de outras ferramentas de inteligência artificial (IA) para seus funcionários, segundo o jornal americano Wall Street Journal. De acordo com a publicação, a empresa está preocupada com o vazamento de dados confidenciais porque funcionários vinham usando programas de IA no trabalho.
A Apple também aconselhou os empregados a não usarem o Copilot, do GitHub, controlado pela Microsoft, e utilizado para automatizar funções de produção de código de software.
A gigante de tecnologia é conhecida por suas rigorosas medidas de segurança para proteger informações sobre futuros produtos e dados do consumidor.
Várias companhias estão cautelosas com a tecnologia, pois seus funcionários começaram a usá-la para tudo, desde escrever e-mails e material de marketing até codificar software. O J.P.Morgan Chase e a Verizon já proibiram seu uso no trabalho.
Isso porque, ao usar o ChatGPT ou modelo similares, dados são enviados de volta ao desenvolvedor para permitir melhorias contínuas. O receio das empresas é que nesse trânsito de informações, haja algum tipo de vazamento de informações confidenciais.
No mês passado, a OpenAI, criadora do ChatGPT e que recebeu investimento da Microsoft, anunciou a introdução de um "modo incógnito" que não salva o histórico de conversas dos usuários nem o utiliza para aprimorar sua inteligência artificial.
Mas as empresas ainda estão receosas quanto a seu uso. Apple, OpenAI e Microsoft foram procuradas pelo WSJ mas não comentaram o assunto.