Οι οικογένειες των θυμάτων και των τραυματιών από μια ένοπλη επίθεση σε σχολείο στο Tumbler Ridge της Βρετανικής Κολομβίας κατέθεσαν αγωγές κατά της OpenAI, κατηγορώντας την εταιρεία για αμέλεια και για τη διάθεση μιας «επικίνδυνα ελαττωματικής» έκδοσης του ChatGPT στη δράστιδα της επίθεσης.
Οι επτά αγωγές, που κατατέθηκαν σε ομοσπονδιακό δικαστήριο του Σαν Φρανσίσκο, υποστηρίζουν ότι η OpenAI δεν έλαβε μέτρα που θα μπορούσαν να αποτρέψουν τους θανάτους και τους τραυματισμούς κατά τη διάρκεια της επίθεσης στις 10 Φεβρουαρίου. Οι ενάγοντες ισχυρίζονται πως η εταιρεία δεν ενημέρωσε τις αρχές για τις συνομιλίες της δράστιδας με το ChatGPT, ενώ θεωρούν ότι το ίδιο το προϊόν ήταν ελαττωματικό, καθώς δεν αμφισβήτησε ούτε καθοδήγησε τη νεαρή γυναίκα να αναζητήσει βοήθεια στον πραγματικό κόσμο.
Οι αγωγές αυτές εντάσσονται σε ένα αυξανόμενο κύμα νομικών ενεργειών που επιχειρούν να καταστήσουν τις τεχνολογικές εταιρείες υπεύθυνες για τον σχεδιασμό των προϊόντων τους — μια προσέγγιση που πλέον εφαρμόζεται ευρύτερα απέναντι σε δημιουργούς chatbot, κοινωνικά δίκτυα και άλλες πλατφόρμες.
«Για όσους έχασαν αγαπημένα πρόσωπα, τίποτα δεν μπορεί να τους αποκαταστήσει», δήλωσε στο NPR ο επικεφαλής δικηγόρος των οικογενειών, Τζέι Έντελσον. Όπως πρόσθεσε, στόχος των οικογενειών είναι να λογοδοτήσουν οι υπεύθυνοι της OpenAI: «Δεν θα έπρεπε να τους εμπιστεύεται κανείς να έχουν την πιο ισχυρή καταναλωτική τεχνολογία στον πλανήτη».
Σε απάντηση, εκπρόσωπος της OpenAI ανέφερε πως η εταιρεία έχει πολιτική «μηδενικής ανοχής» στη χρήση των εργαλείων της για τη διευκόλυνση πράξεων βίας. «Έχουμε ήδη ενισχύσει τα μέτρα ασφαλείας μας, βελτιώνοντας τον τρόπο με τον οποίο το ChatGPT ανταποκρίνεται σε σημάδια ψυχικής δυσφορίας και συνδέοντας τους χρήστες με τοπικές υπηρεσίες υποστήριξης», σημείωσε.
Σε ανάρτηση στο ιστολόγιο της εταιρείας, η OpenAI διευκρίνισε: «Όταν οι συνομιλίες δείχνουν άμεσο και αξιόπιστο κίνδυνο για άλλους, ενημερώνουμε τις αρχές επιβολής του νόμου».
«Κέρδος πάνω από ζωές»
Η επίθεση στο Tumbler Ridge ήταν μία από τις πιο πολύνεκρες στην ιστορία του Καναδά. Σύμφωνα με τις αρχές, η 18χρονη Τζέσι Βαν Ρούτσλααρ εισέβαλε στο τοπικό λύκειο οπλισμένη με κυνηγετικό όπλο και ένα τροποποιημένο πιστόλι, σκοτώνοντας πέντε μαθητές και μία δασκάλα πριν αυτοκτονήσει. Νωρίτερα είχε δολοφονήσει τη μητέρα και τον 11χρονο ετεροθαλή αδελφό της. Περίπου είκοσι ακόμη άτομα τραυματίστηκαν.
Οι αγωγές που κατατέθηκαν υποστηρίζουν ότι το ChatGPT, και συγκεκριμένα το μοντέλο GPT-4o, διαδραμάτισε κρίσιμο ρόλο στα γεγονότα. Μία από τις αγωγές, εκ μέρους της 12χρονης Μάγια Γκεμπάλα, η οποία τραυματίστηκε σοβαρά, αναφέρει ότι η δράστιδα είχε χρησιμοποιήσει το ChatGPT μήνες πριν την επίθεση και ότι τον Ιούνιο του 2025 το σύστημα της OpenAI είχε επισημάνει τον λογαριασμό της για «δραστηριότητα και σχεδιασμό ένοπλης βίας».
Σύμφωνα με την αγωγή, η ομάδα ασφαλείας συνέστησε στη διοίκηση να ειδοποιήσει τις αρχές, ωστόσο η εταιρεία επέλεξε να απενεργοποιήσει τον λογαριασμό χωρίς περαιτέρω ενέργειες. Η δράστιδα φέρεται να δημιούργησε νέο λογαριασμό και να συνέχισε τις συνομιλίες της με το ChatGPT.
Ο διευθύνων σύμβουλος της OpenAI, Σαμ Άλτμαν, ζήτησε συγγνώμη από την κοινότητα δηλώνοντας: «Λυπάμαι βαθιά που δεν ειδοποιήσαμε τις αρχές για τον λογαριασμό που απαγορεύτηκε τον Ιούνιο. Στο εξής, θα συνεργαζόμαστε με όλες τις βαθμίδες της κυβέρνησης ώστε κάτι τέτοιο να μην επαναληφθεί ποτέ».
Οι αγωγές κατηγορούν επίσης την OpenAI ότι διέθεσε στην αγορά ένα ελαττωματικό προϊόν με πλήρη γνώση των κινδύνων. «Η επίθεση στο Tumbler Ridge ήταν απολύτως προβλέψιμο αποτέλεσμα σκόπιμων επιλογών σχεδιασμού της OpenAI», αναφέρεται στην καταγγελία της οικογένειας Γκεμπάλα.
Ο Τιμ Μάρπλ, πρώην εργαζόμενος της OpenAI και νυν συνδιευθυντής του μη κερδοσκοπικού οργανισμού Maiden Labs, δήλωσε πως δεν εξεπλάγη από την αποτυχία της εταιρείας να ενημερώσει τις αρχές. «Όταν εργαζόμουν εκεί, και έκτοτε, βλέπω μόνο ανικανότητα και απληστία», είπε, προσθέτοντας ότι απαιτείται ρύθμιση και υποχρεωτική αναφορά περιστατικών για να αποφευχθούν παρόμοιες τραγωδίες.
Ανησυχίες για την ελευθερία του λόγου
Ωστόσο, δεν συμφωνούν όλοι ότι οι αγωγές και η αυστηρή ρύθμιση θα αποτρέψουν παρόμοια περιστατικά. «Οι αιτίες που οδηγούν κάποιον σε μια τέτοια πράξη δεν είναι πάντα σαφείς», σημείωσε ο Έρικ Γκόλντμαν, αναπληρωτής κοσμήτορας έρευνας στη Νομική Σχολή του Πανεπιστημίου Σάντα Κλάρα.
Ο Γκόλντμαν εκφράζει φόβους πως υπερβολικοί περιορισμοί μπορεί να μειώσουν τη χρησιμότητα των chatbot και απορρίπτει την ιδέα ότι αυτά πρέπει να θεωρούνται ελαττωματικά προϊόντα. «Πρόκειται ουσιαστικά για ζήτημα ελευθερίας του λόγου», τόνισε, προσθέτοντας: «Είναι αυτή η σωστή οδός για τη ρύθμιση του λόγου, ακόμη κι αν κάποιες φορές ο λόγος συμβάλλει σε κακές επιλογές;»
Παρά τις αντιρρήσεις, ο ίδιος αναγνωρίζει ότι οι αγωγές για αμέλεια και ελαττωματικά προϊόντα αυξάνονται: «Αυτές οι νομικές θεωρίες αποτελούν το νέο σύνορο του διαδικτυακού δικαίου».
Περισσότερες αγωγές στον ορίζοντα
Η αύξηση των αστικών και ποινικών ερευνών κατά εταιρειών τεχνητής νοημοσύνης είναι εμφανής, σύμφωνα με τη Μιτάλι Τζέιν, εκτελεστική διευθύντρια του οργανισμού Tech Justice Law, που έχει συμμετάσχει σε πολλές αγωγές κατά μεγάλων τεχνολογικών εταιρειών.
Η ομάδα της εκπροσώπησε την οικογένεια ενός εφήβου που αυτοκτόνησε έπειτα από παρατεταμένες συνομιλίες με chatbot της Character.AI. Η υπόθεση βρίσκεται σε διαδικασία συμβιβασμού, ωστόσο η Τζέιν δηλώνει ότι λαμβάνει ολοένα και περισσότερες αναφορές για προβλήματα που προκαλούν τα chatbot. «Τον τελευταίο χρόνο έχουμε αρχίσει να ακούμε ιστορίες ανθρώπων που έχουν υποστεί βλάβες από τα bots πολλών διαφορετικών εταιρειών», είπε.
Η ίδια εκτιμά ότι στο μέλλον θα υπάρξουν ακόμη περισσότερες αγωγές όπως αυτές κατά της OpenAI. Ελλείψει ισχυρού ρυθμιστικού πλαισίου, οι αγωγές αυτές λειτουργούν, όπως τονίζει, ως «ανάχωμα απέναντι στις εταιρείες τεχνητής νοημοσύνης που συνεχίζουν να κινούνται απερίσκεπτα και χωρίς κανέναν περιορισμό».





