Τεχνητή νοημοσύνη. Νομοσχέδιο που απειλεί τις θέσεις εργασίας ετοιμάζει η ΕΕ. Η περίπτωση αφανισμού της ανθρωπότητας

Τεχνητή νοημοσύνη. Νομοσχέδιο που απειλεί τις θέσεις εργασίας ετοιμάζει η ΕΕ. Η περίπτωση αφανισμού της ανθρωπότητας

Ο Καστανάκης Κωνσταντίνος, είναι απόφοιτος της Σχολής Δημοσιογραφίας του Πανεπιστημίου Frederick, Λευκωσίας.
Μόνιμο μέλος της Ένωσης Συντακτών Ημερήσιων Εφημερίδων Πελοποννήσου – Ηπείρου – Νήσων (μέλος Π.Ο.Ε.Σ.Υ).
Ο Καστανάκης Κωνσταντίνος, δεν εργάζεται, δε συμβουλεύεται, δεν κατέχει μετοχές και δε λαμβάνει καμία χρηματοδότηση από καμία εταιρεία ή οργανισμό ή πολιτικό χώρο που θα επωφεληθεί από αυτό το άρθρο.

Στις 30 Νοεμβρίου 2022, όταν η OpenAI κυκλοφόρησε τον Παραγωγικό Προεκπαιδευόμενο Μετασχηματιστή ChatGPT  (Generative Pre-trained Transformer), την εφαρμογή τεχνητής νοημοσύνης, η οποία βασίζεται στην οικογένεια των γλωσσικών μοντέλων GPT3.5 και είναι βελτιστοποιημένη σε εποπτευόμενες και ενισχυτικές τεχνικές εκμάθησης, σταδιακά παρατηρήθηκε σύγχυση στο ευρύτερο κοινό. Απόρροια των διερευνητικών δημοσιευμάτων που φιλοξενήθηκαν – ακόμη και σήμερα – στα νέα και τα παραδοσιακά μέσα, περικλύζοντας από μανδύα κινδυνολογία και αβεβαιότητας για τη νέα συνθήκη που θα επηρέαζε επί παντός επιστητού την καθημερινότητα της ανθρωπότητας. Οι όροι τεχνητή νοημοσύνη και «κίνδυνος» παρουσιάζονται άρρηκτα συνδεδεμένοι σε κάθε δημόσια αναφορά, είτε αυτοί αφορούν τις εργασιακές σχέσεις ή και ακόμη τον αφανισμό της ανθρωπότητας. Επτά μήνες αργότερα και ειδικότερα στις 14 Ιουνίου 2023, παρατηρήθηκε η πρώτη ουσιαστική πρωτοβουλία διερεύνησης πιθανόν προβλημάτων της τεχνητής νοημοσύνης παράλληλα με τα βιομηχανικά και στρατηγικά παρεχόμενα πλεονεκτήματα, από τα τρία βασικά όργανα της Ευρωπαϊκής Ένωσης. Το Ευρωπαϊκό Κοινοβούλιο ψήφισε σχέδιο πρότασης για τον νόμο περί τεχνητής νοημοσύνης, που φιλοδοξεί να διαμορφώσει τα ευρωπαϊκά πρότυπα ρύθμισης των θεμάτων της. Αναμένεται το νομοσχέδιο να υπερψηφιστεί πριν τη δύση του 2023 και να αποτελέσει την πρώτη νομοθετική ρύθμιση – οδηγό παγκοσμίως, στο σύνολο όλων των τομέων της κοινωνίας, με βασική εξαίρεση τη στρατηγική άμυνα. Πρόκειται για μία νομοθετική πρωτοβουλία που επικεντρώνεται εξολοκλήρου γύρω από την έννοια του κινδύνου. Ρυθμίζεται ο τρόπος με τον οποίο χρησιμοποιείται η τεχνητή νοημοσύνη στους τομείς της κοινωνίας, που ο καθένας ξεχωριστά φέρει διαφορετικά προβλήματα και όχι καθεαυτού η τεχνητή νοημοσύνη ως απειλή. Μάλιστα, υπάρχει διάκριση των αποτελεσμάτων του κινδύνου που κατηγοριοποιείται ως ακολούθως:

  1. Μη αποδεκτός κίνδυνος
  2. Υψηλός
  3. Περιορισμένος
  4. Ελάχιστος

Τα μοντέλα αυτά αποτελούν απειλή των θεμελιωδών αξιών της Δημοκρατίας, των ανθρώπινων δικαιωμάτων όπως αυτά έχουν θεσμοθετηθεί από την Ευρωπαϊκή Ένωση και θα εντάσσονται στην πρώτη κατηγορία. Η προγνωστική αστυνόμευση αποτελεί ένα σημαντικό παράδειγμα του «μη αποδεκτού κινδύνου». Όπως η χρήση της τεχνητής νοημοσύνης για την αξιολόγηση ατόμων, που θα εδράζεται σε προσωπικές πληροφορίες, ώστε να προβλεφθεί η πιθανότητα να διαπράξουν εγκλήματα. Η τεχνολογία αναγνώρισης προσώπου, από κάμερες δρόμου αποτελεί μία ιδιάζουσα περίπτωση. Παρότι εντάσσεται στην ίδια κατηγορία, θα χρησιμοποιείται κατόπιν διάπραξης εγκλήματος και σχετικής εισαγγελικής άδειας.

Στην κατηγορία υψηλού κινδύνου, τα συστήματα τεχνητής νοημοσύνης θα λειτουργούν μία ειδική βάση δεδομένων και θα υπόκεινται σε υποχρεώσεις γνωστοποίησης, παρακολούθησης και ελέγχου. Θα επιτρέπεται στις εφαρμογές της τεχνητής νοημοσύνης να ελέγχουν την πρόσβαση σε υπηρεσίες κυβερνητικών κέντρων, στην υγειονομική περίθαλψη, στα τραπεζικά ιδρύματα, την εκπαίδευση, την απασχόληση κ.ά. Παρότι παρέχεται πεδίο λειτουργίας στις αναφερόμενες δομές, η επίβλεψη των εφαρμογών της τεχνητής νοημοσύνης θεωρείται απαραίτητη, διότι λογχεύει κίνδυνος ασφάλειας και καταπάτησης δικαιωμάτων. Η βασική σκέψη, αφορά την αξιόπιστη και χωρίς διακρίσεις αξιολόγηση των πολιτών της Ευρώπης από τα λογισμικά συστήματα και της πρόσβαση αυτών των ατόμων σε χρηματοοικονομικούς πόρους ή βασικές υπηρεσίες όπως στέγαση, ηλεκτρική ενέργεια, τηλεπικοινωνιακές υπηρεσίες κ.ά. Τα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούνται για αυτόν τον σκοπό ενδέχεται να οδηγήσουν σε διακρίσεις προσώπων ή ομάδων και να διαιωνίσουν ιστορικά πρότυπα διακρίσεων, με βάση τη φυλετική ή εθνική καταγωγή, τις αναπηρίες, την ηλικία, τον σεξουαλικό προσανατολισμό ή να δημιουργήσουν νέες μορφές διακρίσεων. Θα πρέπει να εξασφαλιστεί η αρτιότητα των αποφάσεων που πηγάζουν από τα εργαλεία αυτά. Ως παράδειγμα αναφέρουν τη διαδικασία επιχορήγησης ενός πολίτη, από χρηματοπιστωτικό οργανισμό. Η έγκρισή του θα πρέπει να ελέγχεται προσεχτικά, να είναι εναρμονισμένη με την ευρωπαϊκή νομοθεσία, χωρίς να υφίσταται καμία διάκριση που θα αφορά, το φύλο, την εθνικότητα και άλλους πιθανούς κοινωνικούς διαχωρισμούς. Σε αυτή την περίπτωση διαφαίνεται ξεκάθαρα, ότι οι μηχανές θα αντικαταστήσουν τους ανθρώπους σε καίρια πόστα και οι αλγόριθμοι θα αποφασίζουν, θέματα κεφαλαιώδους σημασίας, για το μέλλον και την επαγγελματική μας εξέλιξη. Σε πρόσφατη έκθεση του ΟΟΣΑ (Οργανισμός Οικονομικής Συνεργασίας και Ανάπτυξης), διαπιστώνει πως το 27,6% του εργατικού δυναμικού της χώρας μας απειλείται από την αυτοματοποίηση. Η Ελλάδα βρίσκεται κοντά στο μέσο όρο της ευρωπαϊκής ένωσης 26,8% των 38 χωρών μελών της ΕΕ.

Σε αυτή την πρόταση νόμου δεν υπάρχουν συγκεκριμένες αναφορές για τον πιθανό κίνδυνο εξαφάνισης της ανθρωπότητας, παρά μόνο γενικές, όπως δεν προβλέπονται ανάλογες προτάσεις όπου η τεχνητή νοημοσύνη μπορεί να συμβάλει καταλυτικά για την αποτροπή του αφανισμού, από άλλες περιπτώσεις, όπως αυτές θα αναφερθούν ακολούθως. Δεν απαντάται το ερώτημα, αν η τεχνητή νοημοσύνη και η ρομποτική μπορούν να αποκτήσουν δύναμη και να αποτελέσουν ουσιαστική απειλή, όπως και για τις περιπτώσεις που αφορούν:

  1. Παγκόσμιο πυρηνικό πόλεμο
  2. Κλιματική αλλαγή, καταστροφή του περιβάλλοντος
  3. Πανδημίες και επιδημίες από νέες ή υπάρχουσες ασθένειες
  4. Καταστροφικά σφάλματα του ανθρώπου σε τεχνολογίες όπως η γενετική τροποποίηση
  5. Φυσικές καταστροφές, όπως σεισμοί, καταιγίδες, τυφώνες, πλημμύρες, κ.λπ.

Δεν εμπεριέχονται κριτήρια που να στοχεύουν στην πρόληψη τέτοιων καταστάσεων, παρά τις αυξημένες αναφορές πολιτών και πολιτικών προσώπων που εκφράζουν την ανησυχία τους. Το σχέδιο νόμου για την AI, απέχει αρκετά από αυτή τη συλλογιστική σκέψη προστασίας της ανθρωπότητας. Η ανησυχία εκφράζεται συχνά επαναλαμβανόμενα και δεν παρέχει λεπτομέρειες για τη δημιουργία «ομπρέλας» προστασίας από την κάθε πιθανή απειλή. Το σχέδιο που εξετάζει η ΕΕ, παρέχει ορισμένες προειδοποιήσεις για την τεχνητή νοημοσύνη, όμως βαδίζει σε ένα στενό μονοπάτι, ανάμεσα στην προστασία των ανθρώπινων αξιών και των δικαιωμάτων. Ωστόσο, δίνει τη δυνατότητα διορθωτικών προτάσεων, όμως αντιμετωπίζει επιδερμικά τον πραγματικό φόβο του κινδύνου που δημιουργεί η χρήση της. Από την εμπειρία μας στη χρήση νέων τεχνολογιών, κατανοούμε πως σπάνια ένας νόμος τηρείται ευλαβικά και ότι πάντα υπάρχουν οι παραβάτες, οι εννοούμενοι και οι εκμεταλλευτές των αδυναμιών της νομοθεσίας. Πόσο μάλλον, όταν δεν υπάρχει καμία ουσιαστική πρόβλεψη, για ένα θέμα που σήμερα δημιουργεί παγκόσμια ανησυχία!

Τη συλλογιστική αυτή ενισχύει η πρόσφατη ανακοίνωση της Google, που επιδιώκει να μπει δυναμικά στον χώρο της τεχνητής νοημοσύνης και το πραγματοποιεί με τον πιο εμφατικό τρόπο, με το να αλλάξει την πολιτική της ιδιωτικότητας. Σύμφωνα με την ανακοίνωση που εξέδωσε στις 6 Ιουλίου 2023 «θα χρησιμοποιεί τις διαθέσιμες πληροφορίες που θα εμφανίζονται στο διαδίκτυο για την ανάπτυξη και εκπαίδευση των εργαλείων της τεχνητής νοημοσύνης». Συνεπάγεται πως κάθε δημόσια ανάρτησή μας, θα χρησιμοποιείται από την εταιρία με το πρόσχημα «της βελτίωσης των υπηρεσιών της, την ανάπτυξη νέων προϊόντων και τεχνολογιών που ωφελούν τους χρήστες και το κοινό»! Μέχρι πρόσφατα τα δεδομένα χρησιμοποιούνταν για το Goggle Translate, όπως και για γλωσσικά μοντέλα, αποκλείοντας τα μοντέλα AI. Και σε αυτό το σημείο γεννάται ένα ακόμη μείζον ερώτημα, που αφορά τον τρόπο που χρησιμοποιούνται τα δεδομένα του διαδικτύου. Μέχρι πρόσφατα δε γνωρίζαμε ποιος διαβάζει αυτόν τον τεράστιο όγκο παραγόμενων δεδομένων, όμως τελευταία ο Έλον Μασκ κατηγόρησε την Microsoft, τον βασικό χρηματοδότη της OpenAI «για παράνομη πρόσβαση σε μεγάλους όγκους δεδομένων του twitter».

Στα τέλη του 2023 αναμένεται να τεθεί σε ισχύ ο νόμος, αφού προηγηθούν οι τριμερής συζητήσεις των βασικών οργάνων της Ευρωπαϊκής Ένωσης, όπου τα χωριστά προσχέδια που θα καταθέσουν διαδοχικά, θα συγχωνευτούν σε ένα τελικό κείμενο. Σε βάθος τριετίας αναμένεται ο νέος νόμος να τεθεί σε ισχύ με την υποχρέωση εναρμόνισης κάθε εταιρίας που δραστηριοποιείται στην ΕΕ. Το πιθανότερο σενάριο είναι την επόμενη τριετία που θα τεθεί σε ισχύ ο νόμος, να μην γνωρίζουμε πώς θα έχει εξελιχτεί ο κόσμος ή κατά πόσο θα τον έχει επηρεάσει η χρήση αυτής της τεχνολογίας, δεδομένων των αναφορών της συνεχούς καθημερινής εξέλιξης της. Πιθανόν να επηρεαστεί ο τρόπος προσέγγισης των επιχειρήσεων, των επιστημών, της εκπαίδευσης με αντίκτυπο την καθημερινότητα εκατομμυρίων πολιτών, όμως αντί να περιμένουμε το μοιραίο ή κάτι λιγότερο κακό, ας ενθαρρύνουμε τα ερευνητικά κέντρα, τα ακαδημαϊκά ιδρύματα σε συνεργασία με τους οργανισμούς, και τις επιχειρήσεις, για την χάραξη ενιαίας στρατηγικής πολιτικής, που πιθανόν να θεωρηθεί καθοριστική για το μέλλον μας.

Βιβλιογραφικές αναφορές:

  1. European Parliament. (2023, June 12). Debate and vote on landmark rules to manage artificial intelligence. Retrieved from https://www.europarl.europa.eu/news/en/agenda/briefing/2023-06-12/1/debate-and-vote-on-landmark-rules-to-manage-artificial-intelligence
  1. European Commission. (2021). Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on a framework for the issuance, verification and acceptance of interoperable certificates of vaccination, testing and recovery against COVID-19 (Digital Green Certificates). Retrieved July 9, 2023, from https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

Pin It on Pinterest