Feb 09 2025 8 mins
Pílula de cultura digital para começarmos bem a semana 😊
Será que corremos o risco de enfrentar robôs assassinos em breve?
Em mais um caso de big tech que trai seus princípios, na terça passada, o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.
Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Mas sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.
É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.
É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?
Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.
E cá estamos discutindo como a recente decisão pode ser tão má!
Por que isso está acontecendo? Isso pode trazer riscos reais? É sobre isso que falo nesse episódio.
E você, o que acha desse novo posicionamento do Google?
Será que corremos o risco de enfrentar robôs assassinos em breve?
Em mais um caso de big tech que trai seus princípios, na terça passada, o Google alterou suas regras éticas para que a inteligência artificial da empresa possa ser usada no desenvolvimento de armas, na vigilância de pessoas, em produtos que possam causar danos severos à sociedade ou que violem direitos humanos.
Não quer dizer que a companhia entrou no negócio de armas de destruição em massa. Mas sua posição agora é de “mitigar resultados não intencionais ou prejudiciais” e buscar “princípios amplamente aceitos do direito internacional e dos direitos humanos”. Mas na prática, isso significa pouco ou nada.
É uma mudança profunda, que pode ter impacto global no uso da IA. Pela posição de enorme destaque do Google, ela pode inspirar empresas do mundo todo a fazer o mesmo, provavelmente com ainda menos cuidado.
É inevitável perguntar por que decidiram fazer isso agora, e por que se recusavam até então. Além disso, se a IA poderá ser usada largamente em produtos criados com o objetivo de matar pessoas, qual garantia existe de que essa tecnologia não sairá do controle, com consequências devastadoras?
Vale lembrar o antigo lema do Google: “don’t be evil” (“não seja mau”), um pacto com práticas empresariais éticas e responsáveis. Mas em 2015, a Alphabet, conglomerado que incorporou o Google, trocou o mote por “faça a coisa certa”, bem mais genérico.
E cá estamos discutindo como a recente decisão pode ser tão má!
Por que isso está acontecendo? Isso pode trazer riscos reais? É sobre isso que falo nesse episódio.
E você, o que acha desse novo posicionamento do Google?