Στο τελευταίο μου άρθρο, δημιουργήσαμε μια θεμελιώδη αλήθεια: για να υιοθετήσουν οι χρήστες και να βασιστούν στην τεχνητή νοημοσύνη, πρέπει να την εμπιστεύονται. Μιλήσαμε ότι η εμπιστοσύνη είναι μια πολύπλευρη κατασκευή, που βασίζεται στις αντιλήψεις για την ικανότητα, την καλοσύνη, την ακεραιότητα και την προβλεψιμότητα ενός AI. Τι συμβαίνει όμως όταν μια τεχνητή νοημοσύνη, με τη σιωπηλή, αλγοριθμική της σοφία, παίρνει μια απόφαση που αφήνει έναν χρήστη μπερδεμένο, απογοητευμένο ή ακόμα και πληγωμένο; Μια αίτηση υποθήκης απορρίπτεται, ένα αγαπημένο τραγούδι απουσιάζει ξαφνικά από μια λίστα αναπαραγωγής και ένα πιστοποιημένο βιογραφικό απορρίπτεται πριν το δει ποτέ κάποιος άνθρωπος. Σε αυτές τις στιγμές, η ικανότητα και η προβλεψιμότητα καταρρέουν και η καλοσύνη αισθάνεται έναν κόσμο μακριά. Η συζήτησή μας τώρα πρέπει να εξελιχθεί από το γιατί της εμπιστοσύνης στο πώς της διαφάνειας. Ο τομέας του Explainable AI (XAI), που επικεντρώνεται στην ανάπτυξη μεθόδων για να γίνουν κατανοητές οι εξόδους AI στον άνθρωπο, έχει εμφανιστεί για να το αντιμετωπίσει, αλλά συχνά πλαισιώνεται ως μια καθαρά τεχνική πρόκληση για τους επιστήμονες δεδομένων. Υποστηρίζω ότι είναι μια κρίσιμη πρόκληση σχεδιασμού για προϊόντα που βασίζονται στην τεχνητή νοημοσύνη. Είναι δουλειά μας ως επαγγελματίες UX να γεφυρώνουμε το χάσμα μεταξύ της αλγοριθμικής λήψης αποφάσεων και της ανθρώπινης κατανόησης. Αυτό το άρθρο παρέχει πρακτικές, πρακτικές οδηγίες σχετικά με τον τρόπο έρευνας και σχεδιασμού για επεξήγηση. Θα προχωρήσουμε πέρα ​​από τα τσιτάτα και στις μακέτες, μεταφράζοντας σύνθετες έννοιες XAI σε συγκεκριμένα σχέδια σχεδίασης που μπορείτε να αρχίσετε να χρησιμοποιείτε σήμερα. Απομυθοποιητικό XAI: Βασικές Έννοιες για Επαγγελματίες UX Το XAI αφορά την απάντηση στην ερώτηση του χρήστη: "Γιατί;" Γιατί μου εμφανίστηκε αυτή η διαφήμιση; Γιατί μου προτείνεται αυτή η ταινία; Γιατί απορρίφθηκε το αίτημά μου; Σκεφτείτε το σαν το AI να δείχνει τη δουλειά του σε ένα μαθηματικό πρόβλημα. Χωρίς αυτήν, έχετε απλώς μια απάντηση και είστε αναγκασμένοι να την πάρετε με πίστη. Δείχνοντας τα βήματα, οικοδομείτε κατανόηση και εμπιστοσύνη. Επιτρέπετε επίσης τον διπλό έλεγχο και την επαλήθευση της εργασίας σας από τους ίδιους τους ανθρώπους που επηρεάζει. Σημασία χαρακτηριστικών και αντιπαραστατικά Υπάρχει μια σειρά από τεχνικές που μπορούμε να χρησιμοποιήσουμε για να διευκρινίσουμε ή να εξηγήσουμε τι συμβαίνει με την τεχνητή νοημοσύνη. Ενώ οι μέθοδοι κυμαίνονται από την παροχή ολόκληρης της λογικής ενός δέντρου αποφάσεων έως τη δημιουργία περιλήψεων φυσικής γλώσσας μιας εξόδου, δύο από τους πιο πρακτικούς και αποτελεσματικούς τύπους πληροφοριών που μπορούν να εισαγάγουν οι επαγγελματίες UX σε μια εμπειρία είναι η σημασία των χαρακτηριστικών (Εικόνα 1) και τα αντιπραγματικά. Αυτά είναι συχνά τα πιο απλά για να κατανοήσουν οι χρήστες και τα πιο λειτουργικά για τους σχεδιαστές για να τα εφαρμόσουν.

Σημασία χαρακτηριστικών Αυτή η μέθοδος επεξήγησης απαντά: "Ποιοι ήταν οι πιο σημαντικοί παράγοντες που εξέτασε η τεχνητή νοημοσύνη;" Πρόκειται για τον εντοπισμό των κορυφαίων 2-3 μεταβλητών που είχαν τον μεγαλύτερο αντίκτυπο στο αποτέλεσμα. Είναι ο τίτλος, όχι ολόκληρη η ιστορία. Παράδειγμα: Φανταστείτε μια τεχνητή νοημοσύνη που προβλέπει εάν ένας πελάτης θα ανακληθεί (ακυρώσει την υπηρεσία του). Η σημασία των χαρακτηριστικών μπορεί να αποκαλύψει ότι ο «αριθμός κλήσεων υποστήριξης τον τελευταίο μήνα» και οι «πρόσφατες αυξήσεις τιμών» ήταν οι δύο πιο σημαντικοί παράγοντες για τον προσδιορισμό του εάν ένας πελάτης ήταν πιθανό να εκτιναχθεί.

Αντιπαραστατικά Αυτή η ισχυρή μέθοδος απαντά, "Τι θα πρέπει να αλλάξω για να έχω διαφορετικό αποτέλεσμα;" Αυτό είναι κρίσιμο γιατί δίνει στους χρήστες την αίσθηση της πρακτορείας. Μετατρέπει ένα απογοητευτικό «όχι» σε ένα «όχι ακόμα». Παράδειγμα: Φανταστείτε ένα σύστημα αίτησης δανείου που χρησιμοποιεί AI. Ένας χρήστης στερείται δανείου. Αντί να βλέπετε απλώς την "Απόρριψη αίτησης", μια αντίθετη εξήγηση θα μοιράζεται επίσης, "Εάν η πιστωτική σας βαθμολογία ήταν 50 μονάδες υψηλότερη ή εάν η αναλογία χρέους προς εισόδημα ήταν 10% χαμηλότερη, το δάνειό σας θα είχε εγκριθεί". Αυτό δίνει στη Σάρα ξεκάθαρα βήματα που μπορεί να κάνει για να πάρει δάνειο στο μέλλον.

Χρήση δεδομένων μοντέλου για βελτίωση της επεξήγησης Αν και οι τεχνικές λεπτομέρειες αντιμετωπίζονται συχνά από επιστήμονες δεδομένων, είναι χρήσιμο για τους επαγγελματίες UX να γνωρίζουν ότι εργαλεία όπως το LIME (Local Interpretable Model-agnostic Explanations) που εξηγεί μεμονωμένες προβλέψεις προσεγγίζοντας το μοντέλο σε τοπικό επίπεδο και το SHAP (SHapley Additive explanations) που χρησιμοποιεί μια προσέγγιση θεωρίας παιχνιδιών για να εξάγει αυτά τα μοντέλα εκμάθησης. πολύπλοκα μοντέλα. Αυτές οι βιβλιοθήκες ουσιαστικά βοηθούν στην ανάλυση της απόφασης ενός AI να δείξει ποιες εισροές είχαν τη μεγαλύτερη επιρροή για ένα δεδομένο αποτέλεσμα. Όταν γίνει σωστά, τα δεδομένα στα οποία βασίζεται η απόφαση ενός εργαλείου AI μπορούν να χρησιμοποιηθούν για να αφηγηθούν μια ισχυρή ιστορία. Ας δούμε τη σημασία των χαρακτηριστικών και τα αντιγεγονότα και ας δείξουμε πώς μπορεί να χρησιμοποιηθεί η επιστήμη των δεδομένων πίσω από την απόφαση για τη βελτίωση της εμπειρίας του χρήστη. Τώρα αςΚαλύψτε τη σημασία των χαρακτηριστικών με τη βοήθεια δεδομένων Τοπικών Επεξηγήσεων (π.χ. LIME): Αυτή η προσέγγιση απαντά: "Γιατί η τεχνητή νοημοσύνη έκανε αυτήν τη συγκεκριμένη σύσταση για μένα αυτήν τη στιγμή;" Αντί για μια γενική εξήγηση για το πώς λειτουργεί το μοντέλο, παρέχει έναν εστιασμένο λόγο για ένα μόνο, συγκεκριμένο παράδειγμα. Είναι προσωπικό και συμφραζόμενο. Παράδειγμα: Φανταστείτε ένα σύστημα προτάσεων μουσικής με τεχνητή νοημοσύνη όπως το Spotify. Μια τοπική εξήγηση θα απαντούσε, "Γιατί το σύστημα σάς συνέστησε αυτό το συγκεκριμένο τραγούδι της Adele αυτήν τη στιγμή;" Η εξήγηση μπορεί να είναι: «Επειδή πρόσφατα ακούσατε πολλές άλλες συναισθηματικές μπαλάντες και τραγούδια από γυναίκες τραγουδίστριες».

Τέλος, ας καλύψουμε τη συμπερίληψη των Επεξηγήσεων βάσει Αξίας (π.χ. δεδομένα Προσθετικών Επεξηγήσεων Shapley (SHAP) σε μια επεξήγηση μιας απόφασης: Αυτή είναι μια πιο διαφοροποιημένη εκδοχή της σημασίας χαρακτηριστικών που απαντά: «Πώς ώθησε κάθε παράγοντας την απόφαση με τον έναν ή τον άλλον τρόπο;» Βοηθά στην οπτικοποίηση του τι είχε σημασία και αν η επιρροή του ήταν θετική ή αρνητική. Παράδειγμα: Φανταστείτε μια τράπεζα να χρησιμοποιεί ένα μοντέλο τεχνητής νοημοσύνης για να αποφασίσει εάν θα εγκρίνει μια αίτηση δανείου.

Σημασία χαρακτηριστικού: Το αποτέλεσμα του μοντέλου μπορεί να δείξει ότι το πιστωτικό σκορ, το εισόδημα και ο λόγος χρέους προς εισόδημα του αιτούντος ήταν οι πιο σημαντικοί παράγοντες στην απόφασή του. Αυτό απαντά σε ό,τι είχε σημασία. Σημασία χαρακτηριστικών με επεξηγήσεις βάσει αξίας (SHAP): Οι τιμές SHAP θα αποκτούσαν περαιτέρω σημασία χαρακτηριστικών με βάση στοιχεία του μοντέλου.

Για ένα εγκεκριμένο δάνειο, το SHAP μπορεί να δείξει ότι ένα υψηλό πιστωτικό σκορ ώθησε σημαντικά την απόφαση προς την έγκριση (θετική επιρροή), ενώ ένας ελαφρώς υψηλότερος από τον μέσο όρο αναλογία χρέους προς εισόδημα το τράβηξε ελαφρώς (αρνητική επιρροή), αλλά όχι αρκετό για να αρνηθεί το δάνειο. Για ένα δάνειο που απορρίφθηκε, η SHAP θα μπορούσε να αποκαλύψει ότι ένα χαμηλό εισόδημα και ένας μεγάλος αριθμός πρόσφατων αιτημάτων για πίστωση ώθησαν έντονα την απόφαση προς την άρνηση, ακόμη και αν το πιστωτικό σκορ ήταν αξιοπρεπές.

Αυτό βοηθά τον υπάλληλο δανείου να εξηγήσει στον αιτούντα πέρα από αυτό που εξετάστηκε, πώς συνέβαλε κάθε παράγοντας στην τελική απόφαση «ναι» ή «όχι». Είναι σημαντικό να αναγνωρίσουμε ότι η ικανότητα παροχής καλών εξηγήσεων συχνά ξεκινά πολύ νωρίτερα στον κύκλο ανάπτυξης. Οι επιστήμονες και οι μηχανικοί δεδομένων διαδραματίζουν καθοριστικό ρόλο δομώντας σκόπιμα μοντέλα και αγωγούς δεδομένων με τρόπους που υποστηρίζουν εγγενώς την επεξήγηση, αντί να προσπαθούν να το βάλουν ως εκ των υστέρων. Οι ομάδες έρευνας και σχεδιασμού μπορούν να το προωθήσουν ξεκινώντας πρώιμες συνομιλίες με επιστήμονες δεδομένων και μηχανικούς σχετικά με τις ανάγκες των χρηστών για κατανόηση, συμβάλλοντας στην ανάπτυξη μετρήσεων επεξηγηματικότητας και συλλογικά πρωτοτυποποιώντας εξηγήσεις για να διασφαλιστεί ότι είναι ακριβείς και φιλικές προς τον χρήστη. XAI και ηθική τεχνητή νοημοσύνη: Αποσυσκευασία μεροληψίας και ευθύνης Πέρα από την οικοδόμηση εμπιστοσύνης, το XAI διαδραματίζει κρίσιμο ρόλο στην αντιμετώπιση των βαθιών ηθικών επιπτώσεων του AI*, ιδιαίτερα όσον αφορά την αλγοριθμική προκατάληψη. Οι τεχνικές επεξήγησης, όπως η ανάλυση των τιμών SHAP, μπορούν να αποκαλύψουν εάν οι αποφάσεις ενός μοντέλου επηρεάζονται δυσανάλογα από ευαίσθητα χαρακτηριστικά όπως η φυλή, το φύλο ή η κοινωνικοοικονομική κατάσταση, ακόμα κι αν αυτοί οι παράγοντες δεν χρησιμοποιήθηκαν ρητά ως άμεσες εισροές. Για παράδειγμα, εάν ένα μοντέλο έγκρισης δανείου αποδίδει με συνέπεια αρνητικές τιμές SHAP σε αιτούντες από μια συγκεκριμένη δημογραφική περιοχή, σηματοδοτεί μια πιθανή μεροληψία που χρειάζεται διερεύνηση, δίνοντας τη δυνατότητα στις ομάδες να εμφανιστούν και να μετριάσουν τέτοια άδικα αποτελέσματα. Η ισχύς του XAI συνοδεύεται επίσης από τη δυνατότητα "πλύσης με δυνατότητα επεξήγησης". Ακριβώς όπως το «greenwashing» παραπλανά τους καταναλωτές σχετικά με τις περιβαλλοντικές πρακτικές, το πλύσιμο με δυνατότητα εξηγήσεων μπορεί να συμβεί όταν οι εξηγήσεις έχουν σχεδιαστεί για να συγκαλύπτουν, αντί να φωτίζουν, την προβληματική αλγοριθμική συμπεριφορά ή τις εγγενείς προκαταλήψεις. Αυτό θα μπορούσε να εκδηλωθεί ως υπερβολικά απλοϊκές εξηγήσεις που παραλείπουν κρίσιμους παράγοντες επιρροής ή εξηγήσεις που πλαισιώνουν στρατηγικά τα αποτελέσματα ώστε να φαίνονται πιο ουδέτερα ή δίκαια από ό,τι στην πραγματικότητα. Υπογραμμίζει την ηθική ευθύνη των επαγγελματιών UX να σχεδιάζουν εξηγήσεις που είναι πραγματικά διαφανείς και επαληθεύσιμες. Οι επαγγελματίες UX, σε συνεργασία με επιστήμονες δεδομένων και ηθικούς, έχουν μια κρίσιμη ευθύνη για την κοινοποίηση του γιατί μιας απόφασης, καθώς και των περιορισμών και των πιθανών προκαταλήψεων του υποκείμενου μοντέλου AI. Αυτό περιλαμβάνει τον καθορισμό ρεαλιστικών προσδοκιών των χρηστών σχετικά με την ακρίβεια της τεχνητής νοημοσύνης, τον εντοπισμό των περιοχών που το μοντέλο μπορεί να είναι λιγότερο αξιόπιστο και την παροχή σαφών καναλιών για προσφυγή ή ανατροφοδότηση όταν οι χρήστες αντιλαμβάνονται άδικα ή εσφαλμένα αποτελέσματα. Προληπτική αντιμετώπιση αυτώνΟι ηθικές διαστάσεις θα μας επιτρέψουν να δημιουργήσουμε συστήματα τεχνητής νοημοσύνης που είναι πραγματικά δίκαια και αξιόπιστα. Από τις μεθόδους σε μακέτες: Πρακτικά πρότυπα σχεδίασης XAI Η γνώση των εννοιών είναι ένα πράγμα. ο σχεδιασμός τους είναι άλλος. Δείτε πώς μπορούμε να μεταφράσουμε αυτές τις μεθόδους XAI σε διαισθητικά μοτίβα σχεδίασης. Μοτίβο 1: Η δήλωση "Επειδή" (για τη σημασία των χαρακτηριστικών) Αυτό είναι το απλούστερο και συχνά πιο αποτελεσματικό μοτίβο. Είναι μια άμεση, απλή δήλωση που αναδεικνύει τον κύριο λόγο για τη δράση ενός AI.

Ευρετικό: Να είστε άμεσοι και συνοπτικοί. Οδηγήστε με τον πιο επιδραστικό λόγο. Αποφύγετε την ορολογία με κάθε κόστος.

Παράδειγμα: Φανταστείτε μια υπηρεσία ροής μουσικής. Αντί να παρουσιάσετε απλώς μια λίστα αναπαραγωγής "Discover Weekly", προσθέστε μια μικρή σειρά μικροαντιγράφων. Πρόταση τραγουδιού: "Velvet Morning"Επειδή ακούτε το "The Fuzz" και άλλο ψυχεδελικό ροκ.

Μοτίβο 2: Η διαδραστική "τι-αν" (για αντιπαραστατικούς) Τα αντιπαραστατικά αφορούν εγγενώς την ενδυνάμωση. Ο καλύτερος τρόπος για να τα αναπαραστήσετε είναι παρέχοντας στους χρήστες διαδραστικά εργαλεία για να εξερευνήσουν οι ίδιοι τις δυνατότητες. Αυτό είναι τέλειο για οικονομικές, υγειονομικές ή άλλες στοχευμένες εφαρμογές.

Ευρετική: Κάντε τις εξηγήσεις διαδραστικές και ενδυναμωτικές. Αφήστε τους χρήστες να δουν την αιτία και το αποτέλεσμα των επιλογών τους.

Παράδειγμα: Μια διεπαφή αίτησης δανείου. Μετά από μια άρνηση, αντί για αδιέξοδο, ο χρήστης λαμβάνει ένα εργαλείο για να προσδιορίσει πώς θα μπορούσαν να διαδραματιστούν διάφορα σενάρια (τι-αν) (Δείτε Εικόνα 1).

Μοτίβο 3: Ο κύλινδρος επισήμανσης (για τοπικές εξηγήσεις) Όταν ένα AI εκτελεί μια ενέργεια στο περιεχόμενο ενός χρήστη (όπως η σύνοψη ενός εγγράφου ή η αναγνώριση προσώπων σε φωτογραφίες), η εξήγηση θα πρέπει να συνδέεται οπτικά με την πηγή.

Ευρετικό: Χρησιμοποιήστε οπτικές ενδείξεις όπως επισημάνσεις, περιγράμματα ή σχολιασμούς για να συνδέσετε την εξήγηση απευθείας με το στοιχείο διεπαφής που εξηγεί.

Παράδειγμα: Ένα εργαλείο τεχνητής νοημοσύνης που συνοψίζει μεγάλα άρθρα. Σημείο σύνοψης που δημιουργείται από AI: Η αρχική έρευνα έδειξε ένα κενό αγοράς για βιώσιμα προϊόντα. Πηγή στο έγγραφο: "...Η ανάλυση των τάσεων της αγοράς στο δεύτερο τρίμηνο μας έδειξε οριστικά ότι κανένας σημαντικός ανταγωνιστής δεν εξυπηρετούσε αποτελεσματικά τον οικολογικό καταναλωτή, αποκαλύπτοντας ένα σημαντικό κενό αγοράς για βιώσιμα προϊόντα..."

Pattern 4: The Push-and-Pull Visual (για επεξηγήσεις βάσει αξίας) Για πιο σύνθετες αποφάσεις, οι χρήστες μπορεί να χρειαστεί να κατανοήσουν την αλληλεπίδραση των παραγόντων. Οι απλές απεικονίσεις δεδομένων μπορούν να το καταστήσουν σαφές χωρίς να είναι συντριπτικές.

Ευρετικό: Χρησιμοποιήστε απλές, χρωματικά κωδικοποιημένες απεικονίσεις δεδομένων (όπως ραβδώσεις) για να δείξετε τους παράγοντες που επηρέασαν θετικά και αρνητικά μια απόφαση.

Παράδειγμα: Μια τεχνητή νοημοσύνη που εξετάζει το προφίλ ενός υποψηφίου για μια θέση εργασίας. Γιατί αυτός ο υποψήφιος ταιριάζει 75%: Παράγοντες που αυξάνουν τη βαθμολογία: 5+ χρόνια Εμπειρία Έρευνας UX Ιδανική στην PythonΠαράγοντες που ωθούν τη βαθμολογία προς τα κάτω: Καμία εμπειρία με B2B SaaS

Η εκμάθηση και η χρήση αυτών των μοτίβων σχεδίασης στο UX του προϊόντος σας AI θα συμβάλει στην αύξηση της επεξηγηματικότητας. Μπορείτε επίσης να χρησιμοποιήσετε πρόσθετες τεχνικές που δεν καλύπτω σε βάθος εδώ. Αυτό περιλαμβάνει τα ακόλουθα:

Επεξηγήσεις φυσικής γλώσσας: Μετάφραση των τεχνικών αποτελεσμάτων μιας τεχνητής νοημοσύνης σε απλή, συνομιλητική ανθρώπινη γλώσσα που μπορούν εύκολα να κατανοήσουν οι μη ειδικοί. Επεξηγήσεις με βάση τα συμφραζόμενα: Παρέχοντας μια λογική για την έξοδο μιας τεχνητής νοημοσύνης τη συγκεκριμένη στιγμή και τοποθεσία, είναι πιο σχετική με την εργασία του χρήστη. Σχετικές απεικονίσεις: Χρήση γραφημάτων, γραφημάτων ή χαρτών θερμότητας για την οπτική αναπαράσταση της διαδικασίας λήψης αποφάσεων μιας τεχνητής νοημοσύνης, καθιστώντας τα σύνθετα δεδομένα διαισθητικά και ευκολότερα κατανοητά από τους χρήστες.

Σημείωση για το Front End: Η μετάφραση αυτών των αποτελεσμάτων επεξήγησης σε απρόσκοπτες εμπειρίες χρήστη παρουσιάζει επίσης το δικό της σύνολο τεχνικών ζητημάτων. Οι προγραμματιστές διεπαφής συχνά αντιμετωπίζουν το σχεδιασμό API για να ανακτήσουν αποτελεσματικά δεδομένα επεξήγησης και οι επιπτώσεις απόδοσης (όπως η δημιουργία επεξηγήσεων σε πραγματικό χρόνο για κάθε αλληλεπίδραση χρήστη) χρειάζονται προσεκτικό σχεδιασμό για να αποφευχθεί η καθυστέρηση. Μερικά παραδείγματα πραγματικού κόσμου UPS Capital's DeliveryDefense Η UPS χρησιμοποιεί τεχνητή νοημοσύνη για να εκχωρήσει μια «βαθμολογία εμπιστοσύνης παράδοσης» σε διευθύνσεις για να προβλέψει την πιθανότητα κλοπής ενός πακέτου. Το λογισμικό DeliveryDefense αναλύει ιστορικά δεδομένα σχετικά με την τοποθεσία, τη συχνότητα απώλειας και άλλους παράγοντες. Εάν μια διεύθυνση έχει χαμηλή βαθμολογία, το σύστημα μπορεί να επαναδρομολογήσει προληπτικά το πακέτο σε ένα ασφαλές σημείο πρόσβασης UPS, παρέχοντας μια εξήγηση για την απόφαση (π.χ. "Το πακέτο αναδρομολογήθηκε σε ασφαλή τοποθεσία λόγω ιστορικού κλοπής"). Αυτό το σύστημα δείχνει πώς το XAI μπορεί να χρησιμοποιηθεί για τον μετριασμό του κινδύνου και την οικοδόμηση εμπιστοσύνης των πελατώνδιαφάνεια. Αυτόνομα Οχήματα Αυτά τα οχήματα του μέλλοντος θα πρέπει να χρησιμοποιούν αποτελεσματικά το XAI για να βοηθήσουν τα οχήματά τους να λαμβάνουν ασφαλείς, εξηγήσιμες αποφάσεις. Όταν ένα αυτοοδηγούμενο αυτοκίνητο φρενάρει ξαφνικά, το σύστημα μπορεί να παρέχει μια εξήγηση σε πραγματικό χρόνο για τη δράση του, για παράδειγμα, εντοπίζοντας έναν πεζό που μπαίνει στο δρόμο. Αυτό δεν είναι μόνο κρίσιμο για την άνεση και την εμπιστοσύνη των επιβατών, αλλά είναι μια κανονιστική απαίτηση για την απόδειξη της ασφάλειας και της υπευθυνότητας του συστήματος AI. IBM Watson Health (και οι προκλήσεις του) Αν και αναφέρεται συχνά ως γενικό παράδειγμα τεχνητής νοημοσύνης στην υγειονομική περίθαλψη, είναι επίσης μια πολύτιμη μελέτη περίπτωσης για τη σημασία του XAI. Η αποτυχία του έργου Watson for Oncology υπογραμμίζει τι μπορεί να πάει στραβά όταν οι εξηγήσεις δεν είναι σαφείς ή όταν τα υποκείμενα δεδομένα είναι προκατειλημμένα ή μη εντοπισμένα. Οι συστάσεις του συστήματος ήταν μερικές φορές ασυνεπείς με τις τοπικές κλινικές πρακτικές, επειδή βασίζονταν σε κατευθυντήριες γραμμές με επίκεντρο τις ΗΠΑ. Αυτό χρησιμεύει ως μια προειδοποιητική ιστορία για την ανάγκη για ισχυρή επεξήγηση με επίγνωση του πλαισίου. Ο ρόλος του ερευνητή UX: Εντοπισμός και επικύρωση εξηγήσεων Οι σχεδιαστικές μας λύσεις είναι αποτελεσματικές μόνο εάν απαντούν στις σωστές ερωτήσεις χρήστη την κατάλληλη στιγμή. Μια εξήγηση που απαντά σε μια ερώτηση που δεν έχει ο χρήστης είναι απλώς ο θόρυβος. Εδώ η έρευνα UX γίνεται ο κρίσιμος συνδετικός ιστός σε μια στρατηγική XAI, διασφαλίζοντας ότι εξηγούμε τι και πώς αυτό πραγματικά έχει σημασία για τους χρήστες μας. Ο ρόλος του ερευνητή είναι διπλός: πρώτον, να ενημερώνει τη στρατηγική προσδιορίζοντας πού χρειάζονται εξηγήσεις και δεύτερον, να επικυρώνει τα σχέδια που παρέχουν αυτές τις εξηγήσεις. Ενημέρωση της στρατηγικής XAI (Τι να εξηγήσω) Προτού μπορέσουμε να σχεδιάσουμε μια ενιαία εξήγηση, πρέπει να κατανοήσουμε το νοητικό μοντέλο του χρήστη για το σύστημα AI. Τι πιστεύουν ότι κάνει; Πού είναι τα κενά μεταξύ της κατανόησής τους και της πραγματικότητας του συστήματος; Αυτό είναι το θεμελιώδες έργο ενός ερευνητή UX. Συνεντεύξεις νοητικού μοντέλου: Αποσυσκευασία των αντιλήψεων των χρηστών για τα συστήματα AI Μέσα από βαθιές, ημι-δομημένες συνεντεύξεις, οι επαγγελματίες UX μπορούν να αποκτήσουν πολύτιμες γνώσεις σχετικά με τον τρόπο με τον οποίο οι χρήστες αντιλαμβάνονται και κατανοούν τα συστήματα AI. Αυτές οι συνεδρίες έχουν σχεδιαστεί για να ενθαρρύνουν τους χρήστες να σχεδιάσουν κυριολεκτικά ή να περιγράψουν το εσωτερικό τους «νοητικό μοντέλο» για το πώς πιστεύουν ότι λειτουργεί η τεχνητή νοημοσύνη. Αυτό συχνά περιλαμβάνει την υποβολή ερωτήσεων ανοιχτού τύπου που προτρέπουν τους χρήστες να εξηγήσουν τη λογική του συστήματος, τις εισόδους και τις εξόδους του, καθώς και τις σχέσεις μεταξύ αυτών των στοιχείων. Αυτές οι συνεντεύξεις είναι ισχυρές επειδή συχνά αποκαλύπτουν βαθιές παρανοήσεις και υποθέσεις που έχουν οι χρήστες σχετικά με την τεχνητή νοημοσύνη. Για παράδειγμα, ένας χρήστης που αλληλεπιδρά με μια μηχανή προτάσεων μπορεί να ισχυριστεί με βεβαιότητα ότι το σύστημα βασίζεται αποκλειστικά στο παρελθόν του ιστορικού προβολής. Μπορεί να μην συνειδητοποιούν ότι ο αλγόριθμος ενσωματώνει επίσης πολλούς άλλους παράγοντες, όπως την ώρα της ημέρας στην οποία περιηγούνται, τα τρέχοντα ανερχόμενα στοιχεία στην πλατφόρμα ή ακόμα και τις συνήθειες προβολής παρόμοιων χρηστών. Η αποκάλυψη αυτού του κενού μεταξύ του νοητικού μοντέλου ενός χρήστη και της πραγματικής υποκείμενης λογικής της τεχνητής νοημοσύνης είναι εξαιρετικά σημαντική. Μας λέει ακριβώς ποιες συγκεκριμένες πληροφορίες πρέπει να κοινοποιήσουμε στους χρήστες για να τους βοηθήσουμε να δημιουργήσουν ένα πιο ακριβές και ισχυρό νοητικό μοντέλο του συστήματος. Αυτό, με τη σειρά του, είναι ένα θεμελιώδες βήμα για την ενίσχυση της εμπιστοσύνης. Όταν οι χρήστες κατανοούν, ακόμη και σε υψηλό επίπεδο, πώς μια τεχνητή νοημοσύνη καταλήγει στα συμπεράσματα ή τις συστάσεις της, είναι πιο πιθανό να εμπιστευτούν τα αποτελέσματά της και να βασιστούν στη λειτουργικότητά της. AI Journey Mapping: Μια βαθιά κατάδυση στην εμπιστοσύνη και την επεξήγηση των χρηστών Με τη σχολαστική χαρτογράφηση του ταξιδιού του χρήστη με μια λειτουργία που τροφοδοτείται από AI, αποκτούμε ανεκτίμητες γνώσεις σχετικά με τις ακριβείς στιγμές όπου εμφανίζεται σύγχυση, απογοήτευση ή ακόμα και βαθιά δυσπιστία. Αυτό αποκαλύπτει κρίσιμες συγκυρίες όπου το νοητικό μοντέλο του χρήστη για τον τρόπο λειτουργίας του AI έρχεται σε σύγκρουση με την πραγματική του συμπεριφορά. Σκεφτείτε μια υπηρεσία ροής μουσικής: Η εμπιστοσύνη του χρήστη πέφτει κατακόρυφα όταν μια σύσταση playlist αισθάνεται «τυχαία», χωρίς κάποια διακριτή σύνδεση με τις προηγούμενες συνήθειες ακρόασης ή τις δηλωμένες προτιμήσεις του; Αυτή η αντιληπτή τυχαιότητα αποτελεί άμεση πρόκληση για την προσδοκία του χρήστη για έξυπνη επιμέλεια και παραβίαση της σιωπηρής υπόσχεσης ότι η τεχνητή νοημοσύνη κατανοεί τη γεύση τους. Ομοίως, σε μια εφαρμογή διαχείρισης φωτογραφιών, οι χρήστες βιώνουν σημαντική απογοήτευση όταν μια λειτουργία προσθήκης ετικετών σε φωτογραφία με τεχνητή νοημοσύνη προσδιορίζει συνεχώς εσφαλμένα ένα αγαπημένο μέλος της οικογένειας; Αυτό το σφάλμα είναι κάτι περισσότερο από ένα τεχνικό σφάλμα. χτυπά στην καρδιά της ακρίβειας, της εξατομίκευσης και ακόμησυναισθηματική σύνδεση. Αυτά τα σημεία πόνου είναι ζωντανά σήματα που υποδεικνύουν ακριβώς πού είναι απαραίτητη μια καλά τοποθετημένη, σαφής και συνοπτική εξήγηση. Τέτοιες εξηγήσεις χρησιμεύουν ως κρίσιμοι μηχανισμοί επιδιόρθωσης, επιδιορθώνοντας μια παραβίαση εμπιστοσύνης που, αν αφεθεί χωρίς αντιμετώπιση, μπορεί να οδηγήσει σε εγκατάλειψη του χρήστη. Η δύναμη της χαρτογράφησης ταξιδιού με τεχνητή νοημοσύνη έγκειται στην ικανότητά της να μας μετακινεί πέρα ​​από την απλή εξήγηση του τελικού αποτελέσματος ενός συστήματος τεχνητής νοημοσύνης. Αν και η κατανόηση του τι παρήγαγε η τεχνητή νοημοσύνη είναι σημαντική, είναι συχνά ανεπαρκής. Αντίθετα, αυτή η διαδικασία μας αναγκάζει να επικεντρωθούμε στην εξήγηση της διαδικασίας σε κρίσιμες στιγμές. Αυτό σημαίνει αντιμετώπιση:

Γιατί δημιουργήθηκε μια συγκεκριμένη έξοδος: Οφειλόταν σε συγκεκριμένα δεδομένα εισόδου; Ένα συγκεκριμένο μοντέλο αρχιτεκτονικής; Ποιοι παράγοντες επηρέασαν την απόφαση της τεχνητής νοημοσύνης: Ήταν ορισμένα χαρακτηριστικά βαρύτερα σταθμισμένα; Πώς έφτασε η τεχνητή νοημοσύνη στο συμπέρασμά της: Μπορούμε να προσφέρουμε μια απλοποιημένη, ανάλογη εξήγηση των εσωτερικών της λειτουργιών; Ποιες υποθέσεις έκανε η τεχνητή νοημοσύνη: Υπήρχαν σιωπηρές κατανοήσεις της πρόθεσης ή των δεδομένων του χρήστη που πρέπει να εμφανιστούν; Ποιοι είναι οι περιορισμοί της τεχνητής νοημοσύνης: Η σαφής επικοινωνία του τι δεν μπορεί να κάνει η τεχνητή νοημοσύνη ή όπου η ακρίβειά της μπορεί να διαταραχθεί, δημιουργεί ρεαλιστικές προσδοκίες.

Η χαρτογράφηση ταξιδιού με τεχνητή νοημοσύνη μετατρέπει την αφηρημένη έννοια του XAI σε ένα πρακτικό, εφαρμόσιμο πλαίσιο για τους επαγγελματίες UX. Μας δίνει τη δυνατότητα να προχωρήσουμε πέρα ​​από τις θεωρητικές συζητήσεις επεξηγηματικότητας και, αντί αυτού, να εντοπίσουμε τις ακριβείς στιγμές όπου διακυβεύεται η εμπιστοσύνη των χρηστών, παρέχοντας τις απαραίτητες πληροφορίες για να δημιουργήσουμε εμπειρίες τεχνητής νοημοσύνης που είναι ισχυρές, διαφανείς, κατανοητές και αξιόπιστες. Τελικά, η έρευνα είναι πώς αποκαλύπτουμε τα άγνωστα. Η ομάδα σας μπορεί να συζητά πώς να εξηγήσει γιατί απορρίφθηκε ένα δάνειο, αλλά η έρευνα μπορεί να αποκαλύψει ότι οι χρήστες ενδιαφέρονται πολύ περισσότερο να κατανοήσουν πώς χρησιμοποιήθηκαν αρχικά τα δεδομένα τους. Χωρίς έρευνα, απλώς μαντεύουμε τι αναρωτιούνται οι χρήστες μας. Συνεργασία στο σχέδιο (Πώς να εξηγήσετε την τεχνητή νοημοσύνη σας) Μόλις η έρευνα εντοπίσει τι πρέπει να εξηγήσει, ξεκινά ο βρόχος συνεργασίας με το σχεδιασμό. Οι σχεδιαστές μπορούν να δημιουργήσουν πρωτότυπα τα μοτίβα που συζητήσαμε νωρίτερα - τη δήλωση "Επειδή", τα διαδραστικά ρυθμιστικά - και οι ερευνητές μπορούν να βάλουν αυτά τα σχέδια μπροστά στους χρήστες για να δουν αν αντέχουν. Στοχευμένη δοκιμή ευχρηστίας και κατανόησης: Μπορούμε να σχεδιάσουμε ερευνητικές μελέτες που δοκιμάζουν ειδικά τα στοιχεία XAI. Δεν ρωτάμε απλώς, "Είναι εύκολο στη χρήση;" Ρωτάμε, "Αφού το είδατε αυτό, μπορείτε να μου πείτε με δικά σας λόγια γιατί το σύστημα συνέστησε αυτό το προϊόν;" ή «Δείξε μου τι θα έκανες για να δω αν θα μπορούσες να έχεις διαφορετικό αποτέλεσμα». Ο στόχος εδώ είναι η μέτρηση της κατανόησης και της δυνατότητας δράσης, παράλληλα με τη χρηστικότητα. Μέτρηση της ίδιας της εμπιστοσύνης: Μπορούμε να χρησιμοποιήσουμε απλές έρευνες και κλίμακες αξιολόγησης πριν και μετά την εμφάνιση μιας εξήγησης. Για παράδειγμα, μπορούμε να ρωτήσουμε έναν χρήστη σε μια κλίμακα 5 βαθμών, "Πόσο εμπιστεύεστε αυτήν τη σύσταση;" προτού δουν τη δήλωση «Επειδή» και μετά ρωτήστε τους ξανά. Αυτό παρέχει ποσοτικά δεδομένα σχετικά με το εάν οι εξηγήσεις μας κινούν πραγματικά τη βελόνα στην εμπιστοσύνη. Αυτή η διαδικασία δημιουργεί έναν ισχυρό, επαναληπτικό βρόχο. Τα ευρήματα της έρευνας αποτελούν τον αρχικό σχεδιασμό. Αυτός ο σχεδιασμός στη συνέχεια δοκιμάζεται και τα νέα ευρήματα επιστρέφονται στην ομάδα σχεδιασμού για βελτίωση. Ίσως η δήλωση «Επειδή» ήταν πολύ οριακή, ή το ρυθμιστικό «Τι-Αν» ήταν περισσότερο μπερδεμένο παρά ενδυναμωτικό. Μέσω αυτής της συλλογικής επικύρωσης, διασφαλίζουμε ότι οι τελικές εξηγήσεις είναι τεχνικά ακριβείς, πραγματικά κατανοητές, χρήσιμες και οικοδομούν εμπιστοσύνη για τα άτομα που χρησιμοποιούν το προϊόν. The Goldilocks Zone Of Explanation Μια κρίσιμη λέξη της προσοχής: είναι δυνατόν να υπερεξηγήσουμε. Όπως και στο παραμύθι, όπου ο Goldilocks αναζήτησε το χυλό που ήταν «ακριβώς σωστό», ο στόχος μιας καλής εξήγησης είναι να παρέχει τη σωστή ποσότητα λεπτομέρειας - όχι πολύ και όχι πολύ λίγη. Ο βομβαρδισμός ενός χρήστη με κάθε μεταβλητή σε ένα μοντέλο θα οδηγήσει σε γνωστική υπερφόρτωση και μπορεί στην πραγματικότητα να μειώσει την εμπιστοσύνη. Ο στόχος δεν είναι να γίνει ο χρήστης επιστήμονας δεδομένων. Μια λύση είναι η προοδευτική αποκάλυψη.

Ξεκινήστε με το απλό. Οδηγήστε με μια συνοπτική δήλωση «Επειδή». Για τους περισσότερους χρήστες, αυτό θα είναι αρκετό. Προσφέρετε μια διαδρομή προς τη λεπτομέρεια. Παρέχετε έναν σαφή σύνδεσμο χαμηλής τριβής, όπως "Μάθετε περισσότερα" ή "Δείτε πώς καθορίστηκε αυτό". Αποκαλύψτε την πολυπλοκότητα. Πίσω από αυτόν τον σύνδεσμο, μπορείτε να προσφέρετε τα διαδραστικά ρυθμιστικά, τις απεικονίσεις ή μια πιο λεπτομερή λίστα παραγόντων που συμβάλλουν.

Αυτή η πολυεπίπεδη προσέγγιση σέβεται την προσοχή και την τεχνογνωσία των χρηστών, παρέχοντας ακριβώς το σωστό ποσόπληροφόρησης για τις ανάγκες τους. Ας φανταστούμε ότι χρησιμοποιείτε μια έξυπνη οικιακή συσκευή που συνιστά τη βέλτιστη θέρμανση με βάση διάφορους παράγοντες. Ξεκινήστε με το απλό: «Το σπίτι σας αυτή τη στιγμή θερμαίνεται στους 72 βαθμούς, που είναι η βέλτιστη θερμοκρασία για εξοικονόμηση ενέργειας και άνεση». Προσφέρετε μια διαδρομή προς τη λεπτομέρεια: Κάτω από αυτό, ένας μικρός σύνδεσμος ή κουμπί: "Γιατί είναι οι 72 μοίρες βέλτιστη;" Αποκαλύψτε την πολυπλοκότητα: Κάνοντας κλικ σε αυτόν τον σύνδεσμο θα μπορούσε να ανοίξει μια νέα οθόνη που δείχνει:

Διαδραστικά ρυθμιστικά για την εξωτερική θερμοκρασία, την υγρασία και το επίπεδο άνεσης που προτιμάτε, που δείχνουν πώς προσαρμόζουν τη συνιστώμενη θερμοκρασία. Μια απεικόνιση της κατανάλωσης ενέργειας σε διαφορετικές θερμοκρασίες. Μια λίστα με παράγοντες που συμβάλλουν, όπως "Ώρα της ημέρας", "Τρέχουσα εξωτερική θερμοκρασία", "Ιστορική χρήση ενέργειας" και "Αισθητήρες πληρότητας".

Είναι αποτελεσματικό να συνδυάζονται πολλαπλές μέθοδοι XAI και αυτό το μοτίβο επεξήγησης Goldilocks Zone of Explanation, το οποίο υποστηρίζει την προοδευτική αποκάλυψη, το ενθαρρύνει έμμεσα. Μπορείτε να ξεκινήσετε με μια απλή δήλωση «Επειδή» (Μοτίβο 1) για άμεση κατανόηση και, στη συνέχεια, να προσφέρετε έναν σύνδεσμο «Μάθετε περισσότερα» που αποκαλύπτει ένα Διαδραστικό «Τι-Αν» (Μοτίβο 2) ή ένα Οπτικό «Πιέστε-και-Τραβήξτε» (Μοτίβο 4) για βαθύτερη εξερεύνηση. Για παράδειγμα, ένα σύστημα αίτησης δανείου θα μπορούσε αρχικά να δηλώσει τον κύριο λόγο άρνησης (σημασία χαρακτηριστικών), στη συνέχεια να επιτρέψει στον χρήστη να αλληλεπιδράσει με ένα εργαλείο "What-If" για να δει πώς οι αλλαγές στο εισόδημα ή το χρέος του θα άλλαζαν το αποτέλεσμα (αντιστοιχεία) και, τέλος, να παρέχει ένα λεπτομερές γράφημα "Push-and-Pull" (βασισμένη σε αξία) για να επεξηγήσει τη θετική συνεισφορά όλων των παραγόντων και τις αρνητικές συνεισφορές. Αυτή η πολυεπίπεδη προσέγγιση επιτρέπει στους χρήστες να έχουν πρόσβαση στο επίπεδο λεπτομέρειας που χρειάζονται, όταν το χρειάζονται, αποτρέποντας τη γνωστική υπερφόρτωση, παρέχοντας παράλληλα ολοκληρωμένη διαφάνεια. Ο καθορισμός των εργαλείων και των μεθόδων XAI που θα χρησιμοποιηθούν είναι κατά κύριο λόγο συνάρτηση ενδελεχούς έρευνας UX. Οι συνεντεύξεις με νοητικό μοντέλο και η χαρτογράφηση ταξιδιού με τεχνητή νοημοσύνη είναι ζωτικής σημασίας για τον εντοπισμό των αναγκών των χρηστών και των σημείων πόνου που σχετίζονται με την κατανόηση και την εμπιστοσύνη της τεχνητής νοημοσύνης. Οι συνεντεύξεις με νοητικό μοντέλο βοηθούν στην αποκάλυψη λανθασμένων αντιλήψεων των χρηστών σχετικά με τον τρόπο λειτουργίας της τεχνητής νοημοσύνης, υποδεικνύοντας περιοχές όπου χρειάζονται θεμελιώδεις εξηγήσεις (όπως η σημασία των χαρακτηριστικών ή οι τοπικές εξηγήσεις). Η χαρτογράφηση ταξιδιού AI, από την άλλη πλευρά, προσδιορίζει κρίσιμες στιγμές σύγχυσης ή δυσπιστίας στην αλληλεπίδραση του χρήστη με την τεχνητή νοημοσύνη, σηματοδοτώντας όπου πιο αναλυτικές ή διαδραστικές επεξηγήσεις (όπως αντιπραγματικά ή εξηγήσεις βάσει αξίας) θα ήταν πιο ωφέλιμες για την εκ νέου οικοδόμηση εμπιστοσύνης και παροχή αντιπροσωπείας.

Τελικά, ο καλύτερος τρόπος για να επιλέξετε μια τεχνική είναι να αφήσετε την έρευνα χρηστών να καθοδηγήσει τις αποφάσεις σας, διασφαλίζοντας ότι οι εξηγήσεις που σχεδιάζετε αντιμετωπίζουν άμεσα τις πραγματικές ερωτήσεις και ανησυχίες των χρηστών, αντί να προσφέρετε απλώς τεχνικές λεπτομέρειες για το δικό τους καλό. XAI για Deep Reasoning Agents Μερικά από τα νεότερα συστήματα τεχνητής νοημοσύνης, γνωστά ως πράκτορες βαθιάς συλλογιστικής, παράγουν μια ρητή «αλυσίδα σκέψης» για κάθε περίπλοκη εργασία. Δεν αναφέρουν απλώς πηγές. δείχνουν το λογικό, βήμα προς βήμα μονοπάτι που ακολούθησαν για να καταλήξουν σε ένα συμπέρασμα. Ενώ αυτή η διαφάνεια παρέχει πολύτιμο πλαίσιο, ένα παιχνίδι με παιχνίδι που εκτείνεται σε πολλές παραγράφους μπορεί να αισθάνεται συντριπτικό σε έναν χρήστη που προσπαθεί απλώς να ολοκληρώσει μια εργασία. Οι αρχές του XAI, ειδικά η Goldilocks Zone of Explanation, ισχύουν απευθείας εδώ. Μπορούμε να επιμεληθούμε το ταξίδι, χρησιμοποιώντας προοδευτική αποκάλυψη για να δείξουμε πρώτα μόνο το τελικό συμπέρασμα και το πιο σημαντικό βήμα στη διαδικασία σκέψης. Οι χρήστες μπορούν στη συνέχεια να επιλέξουν να δουν την πλήρη, λεπτομερή αιτιολογία πολλαπλών βημάτων όταν χρειάζεται να ελέγξουν ξανά τη λογική ή να βρουν ένα συγκεκριμένο γεγονός. Αυτή η προσέγγιση σέβεται την προσοχή του χρήστη, διατηρώντας παράλληλα την πλήρη διαφάνεια του αντιπροσώπου. Επόμενα βήματα: Ενδυνάμωση του ταξιδιού σας στο XAI Η επεξήγηση είναι ένας θεμελιώδης πυλώνας για τη δημιουργία αξιόπιστων και αποτελεσματικών προϊόντων τεχνητής νοημοσύνης. Για τον προχωρημένο επαγγελματία που θέλει να οδηγήσει αυτήν την αλλαγή στον οργανισμό του, το ταξίδι εκτείνεται πέρα ​​από τα μοτίβα σχεδιασμού στη συνηγορία και τη συνεχή μάθηση. Για να εμβαθύνετε την κατανόησή σας και την πρακτική εφαρμογή σας, εξετάστε το ενδεχόμενο να εξερευνήσετε πόρους όπως η εργαλειοθήκη AI Explainability 360 (AIX360) από την IBM Research ή το What-If Tool της Google, που προσφέρουν διαδραστικούς τρόπους για να εξερευνήσετε τη συμπεριφορά και τις επεξηγήσεις του μοντέλου. Η ενασχόληση με κοινότητες όπως το Responsible AI Forum ή συγκεκριμένες ερευνητικές ομάδες που επικεντρώνονται στην ανθρωποκεντρική τεχνητή νοημοσύνη μπορεί να προσφέρει ανεκτίμητες ιδέες και ευκαιρίες συνεργασίας. Τέλος, γίνετε συνήγορος του XAI μέσα στον οργανισμό σας.Πλαίσιο επεξήγησης ως στρατηγική επένδυση. Σκεφτείτε μια σύντομη παρουσίαση στην ηγετική σας ή στις διαλειτουργικές ομάδες σας: "Επενδύοντας στο XAI, θα προχωρήσουμε πέρα από την οικοδόμηση εμπιστοσύνης, θα επιταχύνουμε την υιοθέτηση από τους χρήστες, θα μειώσουμε το κόστος υποστήριξης παρέχοντας στους χρήστες τη δυνατότητα κατανόησης και θα μετριάσουν σημαντικούς ηθικούς και ρυθμιστικούς κινδύνους εκθέτοντας πιθανές προκαταλήψεις. Αυτό είναι καλός σχεδιασμός και έξυπνη επιχείρηση."

Η φωνή σας, βασισμένη στην πρακτική κατανόηση, είναι ζωτικής σημασίας για να βγάλετε την τεχνητή νοημοσύνη από το μαύρο κουτί και σε μια συνεργατική συνεργασία με τους χρήστες.

You May Also Like

Enjoyed This Article?

Get weekly tips on growing your audience and monetizing your content — straight to your inbox.

No spam. Join 138,000+ creators. Unsubscribe anytime.

Create Your Free Bio Page

Join 138,000+ creators on Seemless.

Get Started Free