Όπως επισημαίνει το πρακτορείο Reuters, αρκετοί Αμερικανοί νομικοί προειδοποιούν τους πελάτες τους να μην αντιμετωπίζουν τα chatbots τεχνητής νοημοσύνης ως έμπιστους συμβούλους, ειδικά σε περιπτώσεις όπου διακυβεύεται η ελευθερία ή η νομική τους ευθύνη.

Οι προειδοποιήσεις αυτές εντάθηκαν μετά από απόφαση ομοσπονδιακού δικαστή στη Νέα Υόρκη, ο οποίος έκρινε ότι ο πρώην διευθύνων σύμβουλος μιας χρεοκοπημένης χρηματοοικονομικής εταιρείας δεν μπορούσε να προστατεύσει τις συνομιλίες του με συστήματα τεχνητής νοημοσύνης από τους εισαγγελείς που τον κατηγορούσαν για απάτη σε αξίες.

Μετά τη συγκεκριμένη απόφαση, οι δικηγόροι προειδοποιούν ότι συνομιλίες με εργαλεία όπως το Claude της Anthropic ή το ChatGPT της OpenAI ενδέχεται να ζητηθούν ως αποδεικτικά στοιχεία είτε σε ποινικές είτε σε αστικές υποθέσεις. «Προτρέπουμε τους πελάτες μας να είναι ιδιαίτερα προσεκτικοί», δήλωσε η Alexandria Gutiérrez Swette, δικηγόρος της εταιρείας Kobre & Kim στη Νέα Υόρκη.

Στις ΗΠΑ, οι συζητήσεις μεταξύ δικηγόρου και πελάτη θεωρούνται σχεδόν πάντα εμπιστευτικές. Ωστόσο, τα chatbots δεν είναι δικηγόροι και, σύμφωνα με νομικούς κύκλους, οι χρήστες θα πρέπει να λαμβάνουν μέτρα για την προστασία των δεδομένων τους όταν χρησιμοποιούν τέτοια εργαλεία.

Περισσότερες από δώδεκα μεγάλες αμερικανικές νομικές εταιρείες έχουν δημοσιεύσει οδηγίες προς τους πελάτες τους, ώστε να μειώσουν την πιθανότητα οι συνομιλίες με τεχνητή νοημοσύνη να καταλήξουν στα δικαστήρια. Ορισμένες μάλιστα ενσωματώνουν σχετικές προειδοποιήσεις στα συμβόλαιά τους, όπως η Sher Tremonte, που αναφέρει ότι κοινοποίηση νομικών συμβουλών σε chatbot μπορεί να ακυρώσει το προνόμιο εμπιστευτικότητας μεταξύ δικηγόρου και πελάτη.

Δικαστική απόφαση που άνοιξε τον δρόμο

Η υπόθεση που προκάλεσε έντονη ανησυχία αφορά τον Bradley Heppner, πρώην πρόεδρο της GWG Holdings και ιδρυτή της Beneficent (BENF.O). Ο Heppner κατηγορήθηκε από ομοσπονδιακούς εισαγγελείς για απάτη σε αξίες και ηλεκτρονική απάτη, κατηγορώντας τον για παραπλανητικές πρακτικές. Ο ίδιος δήλωσε αθώος στις κατηγορίες.

Η απόφαση του δικαστή Rakoff θεωρείται ένα από τα πρώτα σημαντικά νομικά τεστ στην εποχή της τεχνητής νοημοσύνης, καθώς αφορά την προστασία της εμπιστευτικής επικοινωνίας μεταξύ δικηγόρου και πελάτη και το κατά πόσο αυτή επεκτείνεται σε συνομιλίες με AI.

Την ίδια ημέρα, ο δικαστής Anthony Patti στο Μίσιγκαν έκρινε ότι μια γυναίκα που εκπροσωπούσε τον εαυτό της σε αγωγή εναντίον της πρώην εργοδότριάς της δεν ήταν υποχρεωμένη να παραδώσει τις συνομιλίες της με το ChatGPT. Ο Patti χαρακτήρισε τα δεδομένα αυτά ως προσωπικό «παραγόμενο έργο» και όχι ως επικοινωνία με τρίτο πρόσωπο.

Ο ίδιος σημείωσε ότι τα συστήματα όπως το ChatGPT είναι «εργαλεία, όχι πρόσωπα». Παράλληλα, τόσο η OpenAI όσο και η Anthropic δηλώνουν στους όρους χρήσης τους ότι μπορούν να μοιραστούν δεδομένα χρηστών με τρίτους και ότι οι χρήστες οφείλουν να συμβουλεύονται επαγγελματία πριν βασιστούν στα chatbots για νομικές συμβουλές.

Αναζητώντας όρια και κανόνες

Οι δικηγόροι προσπαθούν πλέον να θέσουν σαφή όρια στη χρήση τεχνητής νοημοσύνης. Ορισμένοι προτείνουν στους πελάτες να επιλέγουν προσεκτικά τις πλατφόρμες AI που χρησιμοποιούν, ενώ άλλοι συνιστούν να δηλώνεται ρητά στο prompt ότι η έρευνα γίνεται υπό την καθοδήγηση νομικού συμβούλου.

Η εταιρεία Debevoise & Plimpton, με έδρα τη Νέα Υόρκη, προτείνει στους πελάτες της να γράφουν: «Διενεργώ αυτή την έρευνα κατόπιν εντολής του νομικού μου συμβούλου για τη συγκεκριμένη υπόθεση». Παρόμοιες συστάσεις έχουν εκδώσει και άλλες μεγάλες δικηγορικές εταιρείες, όπως η O’Melveny & Myers στο Λος Άντζελες, που προτείνει τη χρήση «κλειστών» εταιρικών AI συστημάτων για μεγαλύτερη ασφάλεια, αν και αυτά παραμένουν σε μεγάλο βαθμό αδοκίμαστα.

Όπως σχολιάζει ο δικηγόρος Justin Ellis από την εταιρεία MoloLamken, αναμένεται ότι μελλοντικές δικαστικές αποφάσεις θα ξεκαθαρίσουν πότε και υπό ποιες συνθήκες οι συνομιλίες με AI μπορούν να χρησιμοποιηθούν ως αποδεικτικά στοιχεία. Μέχρι τότε, οι νομικοί υπενθυμίζουν έναν παλαιό κανόνα: «Μην μιλάτε για την υπόθεσή σας με κανέναν άλλον εκτός από τον δικηγόρο σας — ούτε με την τεχνητή νοημοσύνη».

Σχόλια
Γράψτε το σχόλιό σας
50 /50
2000 /2000
Όροι Χρήσης. Το site προστατεύεται από reCAPTCHA, ισχύουν Πολιτική Απορρήτου & Όροι Χρήσης της Google.
Παπαστεργίου στα "15 λεπτά": Πώς θα μπλοκάρονται τα social media για παιδιά κάτω των 15