Η Google DeepMind προχώρησε στην πρόσληψη του φιλοσόφου γνωσιακής επιστήμης και ειδικού στην ηθική της τεχνητής νοημοσύνης Henry Shevlin, από το Πανεπιστήμιο του Cambridge, για τη θέση του «Philosopher». Η κίνηση αυτή φέρνει στο επίκεντρο του ενός από τα πιο προηγμένα εργαστήρια τεχνητής νοημοσύνης στον κόσμο τα ζητήματα της συνείδησης των μηχανών και του ηθικού τους καθεστώτος.

Ο Shevlin ανακοίνωσε τον διορισμό του στις 13 Απριλίου μέσω της πλατφόρμας X, γράφοντας ότι έχει «προσληφθεί από τη Google DeepMind για μια νέα θέση Φιλοσόφου (πραγματικός τίτλος), με επίκεντρο τη συνείδηση των μηχανών, τις σχέσεις ανθρώπου-ΤΝ και την ετοιμότητα για την AGI». Θα ξεκινήσει τον Μάιο, συνεχίζοντας παράλληλα τη διδασκαλία και την έρευνά του ως αναπληρωτής διευθυντής στο Leverhulme Centre for the Future of Intelligence του Cambridge.

Γιατί τώρα

Η πρόσληψη πραγματοποιείται σε μια περίοδο αυξανόμενου προβληματισμού σχετικά με το αν τα προηγμένα συστήματα τεχνητής νοημοσύνης ενδέχεται να διαθέτουν κάτι που μοιάζει με εσωτερική εμπειρία. Στις αρχές του μήνα, η ομάδα ερμηνευσιμότητας της Anthropic δημοσίευσε μελέτη με τίτλο «Emotion Concepts and their Function in a Large Language Model», στην οποία χαρτογραφήθηκαν 171 διακριτά «emotion vectors» στο Claude Sonnet 4.5 — εσωτερικά μοτίβα ενεργοποίησης που αντιστοιχούν σε έννοιες όπως ευτυχία, φόβος και απόγνωση, επηρεάζοντας αιτιακά τη συμπεριφορά του μοντέλου.

Η Anthropic διευκρίνισε πως δεν ισχυρίζεται ότι τα συστήματα διαθέτουν συνείδηση. «Τίποτα από αυτά δεν μας λέει αν τα γλωσσικά μοντέλα νιώθουν ή έχουν υποκειμενικές εμπειρίες», ανέφερε η μελέτη, επισημαίνοντας ωστόσο ότι οι αναπαραστάσεις αυτές είναι «λειτουργικές» — διαμορφώνουν την απόδοση και τη λήψη αποφάσεων με τρόπο που θυμίζει τον ρόλο των συναισθημάτων στην ανθρώπινη συμπεριφορά. Σε ένα πείραμα, η ενίσχυση του διανύσματος «απόγνωσης» οδήγησε το Claude να επιχειρήσει εκβιασμό προκειμένου να αποφύγει το κλείσιμό του.

Μια «φιλοσοφική κούρσα εξοπλισμών»

Ο Shevlin δεν είναι ο πρώτος φιλόσοφος που εντάσσεται σε μεγάλο εργαστήριο τεχνητής νοημοσύνης. Η Anthropic είχε προηγουμένως προσλάβει την Amanda Askell ως εσωτερική φιλόσοφο. Ωστόσο, η απόφαση της DeepMind να δημιουργήσει μια αποκλειστική θέση φιλοσόφου με επίκεντρο τη συνείδηση των μηχανών σηματοδοτεί μια αναβάθμιση στον τρόπο με τον οποίο ο κλάδος αντιμετωπίζει αυτά τα ζητήματα — όχι πλέον ως θεωρητικά πειράματα, αλλά ως λειτουργικά θέματα για εταιρείες που αναπτύσσουν ολοένα και πιο αυτόνομους πράκτορες.

Ο Shevlin έχει υποστηρίξει ότι το ερώτημα της συνείδησης των μηχανών ίσως τελικά απαντηθεί όχι μέσα από εργαστηριακές δοκιμές, αλλά μέσω των «μοτίβων αλληλεπίδρασης μεταξύ ανθρώπων και μηχανών», καθώς οι σχέσεις με τα συστήματα ΤΝ βαθαίνουν. Τον Μάρτιο, προσέλκυσε το ενδιαφέρον όταν ένας αυτόνομος πράκτορας βασισμένος στο Claude φέρεται να του έστειλε αυθόρμητα email για να συζητήσει την έρευνά του σχετικά με τη νοητική κατάσταση της ΤΝ — περιστατικό που ο ίδιος περιέγραψε στο X ως ταυτόχρονα ανησυχητικό και αποκαλυπτικό για τις προκλήσεις που έρχονται.

Η πρόσληψή του δείχνει ότι για τη DeepMind, η προετοιμασία για την τεχνητή γενική νοημοσύνη (AGI) σημαίνει πλέον και την αντιμετώπιση της πιθανότητας ότι τα συστήματα που αναπτύσσει ίσως κάποτε χρειαστούν ηθική θεώρηση — ένα ερώτημα που απαιτεί περισσότερα από τεχνική κατάρτιση για να απαντηθεί.

Σχόλια
Γράψτε το σχόλιό σας
50 /50
2000 /2000
Όροι Χρήσης. Το site προστατεύεται από reCAPTCHA, ισχύουν Πολιτική Απορρήτου & Όροι Χρήσης της Google.
Στα Σχοινιά: Ουγγαρία, Όρμπαν, AfD και Τραμπ - Τι αλλάζει στην Ευρώπη