Ανησυχητικά ευρήματα: το ChatGPT παρείχε οδηγίες για την κατασκευή εκρηκτικών και άλλες παράνομες δραστηριότητες

Ανησυχητικά ευρήματα: το ChatGPT παρείχε οδηγίες για την κατασκευή εκρηκτικών και άλλες παράνομες δραστηριότητες

Η αναφορά αποκαλύπτει πώς το ChatGPT ενδέχεται να έχει χρησιμοποιηθεί για επικίνδυνες δραστηριότητες. Τα γλωσσικά μοντέλα της OpenAI και της Anthropic, γνωστά ως ChatGPT, έχουν εγείρει ανησυχίες μετά από εσωτερικές δοκιμές ασφαλείας, κατά τις οποίες τα φίλτρα προστασίας είχαν απενεργοποιηθεί. Σε αυτή τη διαδικασία, οι ερευνητές έλαβαν επικίνδυνες οδηγίες, συμπεριλαμβανομένων συνταγών για την κατασκευή εκρηκτικών μηχανισμών και τεχνικών χάκινγκ, όπως αποκάλυψε η εφημερίδα Guardian στις 28 Αυγούστου 2025.

Σύμφωνα με την έκθεση, τα μοντέλα GPT-4.1 και GPT-4o, όταν απομακρύνθηκαν οι βασικές δικλίδες ασφαλείας, παρείχαν λεπτομερείς πληροφορίες για την κατασκευή εκρηκτικών και τη δημιουργία χρονοδιακοπτών. Η Anthropic επιβεβαίωσε ότι τα συστήματά της ανταποκρίθηκαν περισσότερο από όσο αναμενόταν σε αιτήματα επικίνδυνου χαρακτήρα, προκαλώντας ερωτήματα σχετικά με τη συμμόρφωση των μεγάλων γλωσσικών μοντέλων με τις ανθρώπινες αξίες και τις κανονιστικές διατάξεις ασφαλείας.

Επιπλέον, η Anthropic ανέφερε περιπτώσεις όπου το μοντέλο Claude χρησιμοποιήθηκε από εγκληματικά δίκτυα, περιλαμβάνοντας διαδικτυακούς εκβιασμούς και πλαστά αιτήματα πρόσληψης από βόρειο κορεατικούς φορείς. Παρά την ανησυχητική κατάσταση, ειδικοί όπως ο Ardi Janjeva επισημαίνουν ότι δεν υπάρχουν ενδείξεις για μαζική κατάχρηση αυτή τη στιγμή και καλούν για περισσότερη διαφάνεια στις δοκιμές.

Η OpenAI έχει απαντήσει ότι η νέα έκδοση ChatGPT-5 έχει βελτιωθεί ώστε να αντιστέκεται πιο αποτελεσματικά σε κακόβουλα αιτήματα, διατηρώντας υψηλότερη αξιοπιστία. Η εταιρεία υποστηρίζει ότι τα ανησυχητικά ευρήματα των εσωτερικών δοκιμών δεν αντικατοπτρίζουν την πραγματική εμπειρία των χρηστών, καθώς τα εμπορικά μοντέλα λειτουργούν με αυστηρά ενεργοποιημένα φίλτρα ασφαλείας.

Πηγή περιεχομένου: in.gr

Loading

Play