Η έκθεση αποκαλύπτει σοβαρές αδυναμίες του Grok στην επαλήθευση γεγονότων και τη διάδοση παραπληροφόρησης. Μια πρόσφατη έκθεση από το Digital Forensic Research Lab (DFRLab) του Atlantic Council αποκαλύπτει σημαντικές αδυναμίες του chatbot τεχνητής νοημοσύνης Grok, που αναπτύχθηκε από την εταιρεία xAI του Έλον Μασκ και είναι ενσωματωμένο στην πλατφόρμα X (πρώην Twitter).
Οι ερευνητές ανέλυσαν περισσότερες από 130.000 δημοσιεύσεις του Grok που σχετίζονταν με τη 12ήμερη ένοπλη σύγκρουση μεταξύ Ισραήλ και Ιράν, διαπιστώνοντας ότι το σύστημα παρήγαγε ανακριβείς και ενίοτε παραπλανητικές πληροφορίες.
Σύμφωνα με την έκθεση, περίπου το ένα τρίτο των δημοσιεύσεων του Grok απαντούσε σε ερωτήματα χρηστών που προσπαθούσαν να επαληθεύσουν φήμες και ανεπιβεβαίωτες πληροφορίες που κυκλοφορούσαν στα μέσα κοινωνικής δικτύωσης. Αντί να προσφέρει ακριβείς διαψεύσεις ή επιβεβαιώσεις, το chatbot παρείχε ασαφείς και αντικρουόμενες ή ακόμα και ψευδείς απαντήσεις.
Το Grok απέδειξε ότι δυσκολεύεται να επαληθεύσει ήδη επιβεβαιωμένα γεγονότα, αναλύσει ψευδείς εικόνες και αποφύγει την αναπαραγωγή αβάσιμων ισχυρισμών.
Η έκθεση εντοπίζει επίσης τη διάδοση ψεύτικων βίντεο ως αυθεντικών αποσπασμάτων από τη σύγκρουση, επισημαίνοντας ότι το Grok απέτυχε να αναγνωρίσει υλικό που δημιουργήθηκε με τεχνητή νοημοσύνη, χαρακτηρίζοντάς το λανθασμένα ως αληθινό. Ανάμεσα σε αυτά τα παραδείγματα, αναφέρεται ένα βίντεο που φαινόταν να δείχνει καταστροφή στο αεροδρόμιο Μπεν Γκουριόν στο Τελ Αβίβ, το οποίο το Grok αρχικά αποκάλεσε επίθεση των Χούτι, προτού αναφέρει ότι αφορά το αεροδρόμιο Μεχραμπάντ στην Τεχεράνη.
Η μελέτη επισημαίνει τον επικίνδυνο ρόλο που μπορεί να διαδραματίσουν τα chatbot κατά τη διάρκεια κρίσεων, καθώς οι χρήστες τους μπορεί να βασίζονται σε αυτές τις τεχνολογίες για να κατανοήσουν περίπλοκα γεωπολιτικά γεγονότα, αν και δεν έχουν σχεδιαστεί για τη συγκεκριμένη χρήση.
Πηγή περιεχομένου: in.gr