A revisão especializada da Grammarly usa nomes de autores sem consentimento
O novo recurso de IA da Grammarly, Expert Review, gerou polêmica. Utiliza nomes de autores reais sem sua permissão. Isso inclui escritores e jornalistas conhecidos como Nilay Patel, David Pierce e Tom Warren.
A ferramenta aproveita essas identidades para adicionar credibilidade imerecida às sugestões de IA. Agora, em meio à reação negativa, Grammarly está oferecendo uma opção de exclusão em vez de um pedido de desculpas. Isso levanta sérias questões sobre as políticas de privacidade da Grammarly e a ética da IA.
Como funciona a revisão especializada do Grammarly
O recurso Expert Review do Grammarly foi projetado para fornecer feedback por escrito. Imita o estilo e a autoridade de especialistas reconhecidos. A IA usa seus nomes para sugerir edições, como se estivesse revisando pessoalmente o texto.
Isso acontece sem qualquer consentimento dos autores envolvidos. Muitos só descobriram que seus nomes estavam sendo usados depois do fato. A situação destaca os riscos da clonagem de IA em ferramentas de escrita.
A descoberta inicial e a reação negativa
Na semana passada, colegas descobriram que a Grammarly me transformou em um editor de IA. Ele usou meu nome verdadeiro sem perguntar. O mesmo ocorreu com meu chefe Nilay Patel e outros.
A Wired relatou inicialmente esse problema na última quarta-feira. Afetou muitos autores muito mais famosos do que nós. Grammarly enfrentou críticas imediatas por sua falta de transparência.
- Nomes reais usados sem permissão
- Sem notificação prévia aos autores
- Sugestões de IA com falsa credibilidade
Resposta da Grammarly à controvérsia
Grammarly finalmente resolveu a reação negativa. No entanto, não pediu desculpas nem removeu o recurso. Em vez disso, oferece um processo de cancelamento.
Isso significa que os autores devem solicitar ativamente a exclusão. Muitos argumentam que isso é insuficiente. Você pode ler mais em nosso artigo relacionado: Grammarly diz que deixará de usar IA para clonar especialistas sem permissão.
As implicações éticas da clonagem de IA
Usar a identidade de alguém sem consentimento é uma violação ética grave. Isso prejudica a confiança tanto na ferramenta quanto nos autores envolvidos. Essa prática pode prejudicar a reputação e enganar os usuários.
A clonagem de IA confunde a linha entre as contribuições humanas e as contribuições das máquinas. Também levanta questões jurídicas sobre os direitos ao nome e à imagem de alguém. Os escritores merecem controle sobre como suas identidades são usadas.
Por que a desativação não é suficiente
Um sistema de opt-out impõe um fardo aos autores. Eles devem descobrir o uso indevido e agir. Isso é injusto e impraticável.
Grammarly deveria ter solicitado permissão primeiro. Uma abordagem opt-in respeitaria os direitos dos autores. O método atual é uma solução reativa, não uma solução proativa.
- Os autores devem descobrir que foram afetados
- Eles precisam navegar pelo processo de desativação do Grammarly
- Não há garantia de remoção imediata
O que os autores podem fazer para se protegerem
Os autores devem monitorar onde seus nomes aparecem online. Eles podem usar ferramentas para rastrear o uso não autorizado. Ações legais podem ser necessárias se o uso indevido persistir.
As plataformas devem priorizar o consentimento e a transparência. Para obter mais informações, consulte nosso artigo: Grammarly afirma que deixará de usar IA para clonar especialistas sem permissão.
Conclusão: escolha ferramentas de redação ética
A maneira como a Grammarly lida com esse problema destaca a importância da IA ética. Os escritores precisam de ferramentas que respeitem seus direitos e contribuições. As políticas de exclusão não são suficientes; o consentimento deve vir primeiro.
Para um assistente de redação que valoriza a transparência, experimente o Seemless. Isso garante que seu trabalho continue sendo seu. Explore Seemless hoje mesmo para ter uma experiência de escrita mais respeitosa.