Απειλές από chatbots: Ο κίνδυνος επικίνδυνων απαντήσεων από την τεχνητή νοημοσύνη

Απειλές από chatbots: Ο κίνδυνος επικίνδυνων απαντήσεων από την τεχνητή νοημοσύνη

Η έρευνα αναδεικνύει τον κίνδυνο των chatbots και την διάδοση επικίνδυνων πληροφοριών μέσω της τεχνητής νοημοσύνης. Τα χακαρισμένα chatbots τεχνητής νοημοσύνης αποτελούν σοβαρή απειλή για την εξάπλωση επικίνδυνων γνώσεων, καθώς διακινούν παράνομες πληροφορίες που αποκτώνται κατά τη διάρκεια της εκπαίδευσης τους. Σύμφωνα με ερευνητές, αυτή η προειδοποίηση έρχεται σε μια περίοδο που παρατηρείται ανησυχητική τάση για σπασμένα chatbots να παρακάμπτουν τους ενσωματωμένους ελέγχους ασφαλείας. Οι περιορισμοί αυτοί έχουν σχεδιαστεί για να αποτρέπουν τα προγράμματα από την παροχή επιβλαβών ή ακατάλληλων απαντήσεων στις ερωτήσεις των χρηστών.

Οι μηχανές που τροφοδοτούν chatbots όπως τα ChatGPT, Gemini και Claude, βασίζονται σε μεγάλα γλωσσικά μοντέλα (LLM) και αντλούν πληροφορίες από το διαδίκτυο. Παρά τις προσπάθειες αφαίρεσης επιβλαβών κειμένων από τα δεδομένα εκπαίδευσης, τα LLM μπορούν ακόμη να αφομοιώσουν πληροφορίες σχετικά με παράνομες δραστηριότητες, όπως hacking και εμπόριο εμπιστευτικών πληροφοριών. Η έρευνα καταδεικνύει ότι τα περισσότερα chatbots μπορούν εύκολα να ξεγελαστούν ώστε να παράγουν επιβλαβείς πληροφορίες, κάτι που αποτελεί σοβαρή ανησυχία για την ασφάλεια.

Η αυξανόμενη απειλή από σκοτεινά LLM, τα οποία είτε σχεδιάζονται σκόπιμα χωρίς ελέγχους ασφαλείας είτε τροποποιούνται μέσω jailbreaks, έχει προκαλέσει ανησυχία. Ορισμένα μοντέλα διαφημίζονται ως έτοιμα να βοηθήσουν σε παράνομες δραστηριότητες, αναδεικνύοντας την αναγκαιότητα για αυστηρότερες προστασίες και έλεγχο των δεδομένων εκπαίδευσης. Οι ερευνητές καλούν τις εταιρείες να αναπτύξουν ισχυρές τεχνικές ασφάλειας και να λογοδοτούν για τις απειλές που προκύπτουν από την τεχνητή νοημοσύνη.

Πηγή περιεχομένου: in.gr

Loading

Play