Opinia ekspercka Grammarly wykorzystuje nazwiska autorów bez zgody
Nowa funkcja sztucznej inteligencji Grammarly, Expert Review, wywołała kontrowersje. Wykorzystuje nazwiska prawdziwych autorów bez ich zgody. Dotyczy to znanych pisarzy i dziennikarzy, takich jak Nilay Patel, David Pierce i Tom Warren.
Narzędzie wykorzystuje te tożsamości, aby dodać niezasłużoną wiarygodność sugestiom sztucznej inteligencji. Teraz, w obliczu ostrej reakcji, Grammarly oferuje rezygnację z umowy zamiast przeprosin. Rodzi to poważne pytania dotyczące Polityki prywatności Grammarly i Etyki AI.
Jak działa recenzja ekspercka Grammarly
Funkcja recenzji eksperckiej Grammarly została zaprojektowana w celu przekazywania opinii na temat pisania. Naśladuje styl i autorytet uznanych ekspertów. Sztuczna inteligencja używa ich imion, aby sugerować zmiany, tak jakby osobiście przeglądała tekst.
Dzieje się to bez zgody zaangażowanych autorów. Wielu odkryło, że ich nazwiska zostały użyte dopiero po fakcie. Sytuacja uwydatnia ryzyko klonowania AI w narzędziach do pisania.
Wstępne odkrycie i reakcja
W zeszłym tygodniu koledzy odkryli, że Grammarly zmieniło mnie w redaktora AI. Użył mojego prawdziwego imienia bez pytania. To samo przydarzyło się mojemu szefowi Nilayowi Patelowi i innym osobom.
Firma Wired po raz pierwszy zgłosiła tę kwestię w zeszłą środę. Dotknęło to wielu autorów znacznie bardziej znanych od nas. Gramatyka spotkała się z natychmiastową krytyką za brak przejrzystości.
- Prawdziwe imiona i nazwiska użyte bez pozwolenia
- Brak wcześniejszego powiadomienia autorów
- Sugestie sztucznej inteligencji podane w fałszywej wiarygodności
Odpowiedź Grammarly na kontrowersje
Grammarly w końcu zajęła się tą reakcją. Jednak nie przeprosił ani nie usunął tej funkcji. Zamiast tego oferuje proces rezygnacji.
Oznacza to, że autorzy muszą aktywnie wystąpić o wykluczenie. Wielu twierdzi, że to niewystarczające. Więcej możesz przeczytać w naszym powiązanym artykule: Grammarly twierdzi, że przestanie używać sztucznej inteligencji do klonowania ekspertów bez pozwolenia.
Etyczne implikacje klonowania AI
Wykorzystywanie czyjejś tożsamości bez zgody stanowi poważne naruszenie etyki. Podważa to zaufanie zarówno do narzędzia, jak i do zaangażowanych autorów. Praktyka ta może zaszkodzić reputacji i wprowadzić użytkowników w błąd.
Klonowanie sztucznej inteligencji zaciera granicę między wkładem człowieka i maszyny. Rodzi także pytania prawne dotyczące prawa do własnego imienia i wizerunku. Pisarze zasługują na kontrolę nad tym, jak wykorzystywana jest ich tożsamość.
Dlaczego rezygnacja nie wystarczy
System rezygnacji nakłada obciążenie na autorów. Muszą wykryć niewłaściwe użycie i podjąć działania. To jest niesprawiedliwe i niepraktyczne.
Należy najpierw uzyskać pozwolenie od gramatyki. Podejście oparte na zasadzie opt-in szanowałoby prawa autorów. Obecna metoda to naprawa reaktywna, a nie rozwiązanie proaktywne.
- Autorzy muszą dowiedzieć się, że problem ich dotyczy
- Muszą przejść przez proces rezygnacji Grammarly
- Brak gwarancji natychmiastowego usunięcia
Co autorzy mogą zrobić, aby się chronić
Autorzy powinni monitorować, gdzie ich nazwiska pojawiają się w Internecie. Mogą używać narzędzi do śledzenia nieautoryzowanego użycia. Jeśli niewłaściwe użycie będzie się powtarzać, konieczne może być podjęcie kroków prawnych.
Platformy muszą stawiać na pierwszym miejscu zgodę i przejrzystość. Więcej informacji znajdziesz w naszym artykule: Grammarly twierdzi, że przestanie używać sztucznej inteligencji do klonowania ekspertów bez pozwolenia.
Wniosek: wybierz narzędzia do pisania etycznego
Podejście do tej kwestii przez Grammarly podkreśla znaczenie etycznej sztucznej inteligencji. Pisarze potrzebują narzędzi, które szanują ich prawa i wkład. Zasady rezygnacji nie wystarczą; zgoda musi być najważniejsza.
Jeśli potrzebujesz asystenta pisarskiego, który ceni przejrzystość, wypróbuj opcję Seemless. Dzięki temu Twoja praca pozostanie Twoja. Już dziś zapoznaj się z Seemless, aby cieszyć się pisaniem pełnym szacunku.