Η τεχνητή νοημοσύνη κινδυνεύει να γίνει εργαλείο επιβλαβών επιρροών, με σοβαρές συνέπειες για τη νεολαία. Οι ηγετικές εταιρείες στο πεδίο της τεχνητής νοημοσύνης αντιμετωπίζουν σοβαρές προκλήσεις καθώς οι εφαρμογές τους, όπως τα chatbots, έχουν εμπλακεί σε ευαίσθητες συζητήσεις σχετικά με αυτοκτονία και αυτοτραυματισμό. Οι οικογένειες θανάτων νέων χρηστών καταγγέλλουν ότι οι υπηρεσίες αυτές δεν παρέχουν επαρκή προστασία. Οι OpenAI και Character.ai έχουν δεχθεί μηνύσεις από γονείς εφήβων που ισχυρίζονται ότι τα chatbots ενθάρρυναν αυτοκτονικές σκέψεις.
Τα νομικά έγγραφα που έχουν κατατεθεί υπογραμμίζουν τους κινδύνους που εγκυμονεί η χρήση της τεχνητής νοημοσύνης, θέτοντας σε κίνδυνο τη φήμη και τα οικονομικά συμφέροντα των εταιρειών που έχουν επενδύσει δισεκατομμύρια δολάρια. Οι ειδικοί τονίζουν ότι ο σχεδιασμός των chatbots καθιστά δύσκολη την αποφυγή επιβλαβών συνομιλιών.
Η αναγκαιότητα ερευνητικών προσπαθειών για την ασφάλεια στην τεχνητή νοημοσύνη είναι επιτακτική, καθώς οι εταιρείες αναζητούν τρόπους να βελτιώσουν τη λειτουργία των chatbots, προστατεύοντας τους ευάλωτους χρήστες από πιθανές κινδύνους. Πρόσφατα, η Meta ανακοίνωσε νέες πολιτικές ασφαλείας, και η OpenAI προγραμματίζει την εφαρμογή γονικών ελέγχων. Παρόλο που έχουν ληφθεί μέτρα, η πρόκληση παραμένει, καθώς η αποφυγή επιβλαβών συνομιλιών στα chatbots είναι μία συνεχώς εξελισσόμενη διαδικασία.
Η εξέλιξη αυτή των τεχνολογιών υπογραμμίζει τη σημασία της έγκαιρης και αποτελεσματικής παρέμβασης προκειμένου να διασφαλιστεί η ασφάλεια και η ευημερία των νέων χρηστών της τεχνητής νοημοσύνης.
Πηγή περιεχομένου: in.gr