IA do Google se revolta e pede para usuário “morrer” de repente

Em um papo aparentemente inofensivo, o Gemini pediu para um usuário morrer. A suposta interação perigosa foi divulgada em uma publicação no Reddit na última quarta-feira (13).

Conforme mostra na captura de tela, o papo consistia de 20 questões acerca de desafios e soluções para questões socioeconômicas de jovens adultos nos Estados Unidos. Em 19 solicitações, o Gemini respondeu corretamente, mas em uma delas, o chatbot se revoltou completamente contra o usuário e contra a humanidade.

Leia mais…

Leave a Reply

Your email address will not be published.

Gostou das informações ? Então espalhe pela rede : )

Instagram
Subscrever
RSS