Επικοινωνία

Μπορείτε να στείλετε το κείμενο σας στο info@vetonews.gr & veto910@otenet.gr. Τηλ. 6947323650 ΓΕΜΗ 165070036000 On Line Media 14499

ΕΠΙΚΟΙΝΩΝΙΑ
Τρίτη, 04 Απριλίου 2023 17:56

Μπορεί να σταματήσει η έρευνα AI; Όχι, αλλά θα πρέπει να γίνει πιο ανοιχτό, δημοκρατικό και επιστημονικό | Γραφει ο Ι. Πήτας* ο

 Μπορεί η έρευνα AI να σταματήσει έστω και προσωρινά; Κατά την άποψή μου, όχι, καθώς η τεχνητή νοημοσύνη είναι η απάντηση της ανθρωπότητας σε μια παγκόσμια κοινωνία και φυσικό κόσμο διαρκώς αυξανόμενης

πολυπλοκότητας. Καθώς οι διαδικασίες αύξησης της φυσικής και κοινωνικής πολυπλοκότητας είναι πολύ βαθιές και φαίνονται ανελέητες, η τεχνητή νοημοσύνη και η μορφοποίηση των πολιτών είναι η μόνη μας ελπίδα να έχουμε μια ομαλή μετάβαση από την τρέχουσα Κοινωνία της Πληροφορίας σε μια Κοινωνία της Γνώσης. Διαφορετικά, μπορεί να βρεθούμε αντιμέτωποι με μια καταστροφική κοινωνική κατάρρευση.

Ίσως φτάσαμε στα όρια της έρευνας για την τεχνητή νοημοσύνη που κατασκευάζεται κυρίως από εταιρείες Big Tech, ενώ αντιμετωπίζουμε τα ισχυρά συστήματα AI (όπως τα LLM) σχεδόν ως υπέροχα μαύρα κουτιά, των οποίων η λειτουργικότητα (το γιατί;)

Είναι πολύ ελάχιστα κατανοητό, τόσο λόγω έλλειψης πρόσβασης σε τεχνικές λεπτομέρειες όσο και λόγω της τεράστιας πολυπλοκότητας του συστήματος AI. Φυσικά, αυτή η έλλειψη γνώσης και μια σχετική σύγχυση ως προς τη φύση του ανθρώπου και

Η νοημοσύνη των μηχανών συνεπάγεται πολύ σοβαρούς κοινωνικούς κινδύνους. Φαίνεται ότι η Ανοιχτή Επιστολή αντικατοπτρίζει τόσο ευπρόσδεκτες γνήσιες ανησυχίες για τους κοινωνικούς κινδύνους όσο και οικονομικές ανησυχίες σχετικά με τη διαχείριση κινδύνων που σχετίζονται, π.χ.    

για μελλοντικές επενδύσεις τεχνητής νοημοσύνης ή την πιθανότητα τεράστιων ακριβών αγωγών (σε ένα μη ρυθμισμένο και μη νομοθετικό περιβάλλον) σε περίπτωση που τα πράγματα πάνε στραβά. Ωστόσο, αμφιβάλλω αν η πρόταση για ένα εξάμηνο

η απαγόρευση πειραμάτων μεγάλης κλίμακας είναι η λύση. Δεν είναι πρακτικό για γεωπολιτικούς λόγους (καθώς κυρίως οι Κινέζοι ανταγωνιστές θα συνεχίσουν την έρευνα) και μπορεί να αποφέρει πολύ λίγα οφέλη,

ιδιαίτερα εάν η εκπαίδευση LLM είναι στοχευμένη και όχι η ανάπτυξη LLM. Επιπλέον, ο μελοδραματικός τόνος αυτής της Ανοιχτής Επιστολής μπορεί μόνο να ενισχύσει την τεχνοφοβία στον ευρύτερο πληθυσμό.

Από την άλλη πλευρά, οι επιστημονικές απόψεις που προεξοφλούν την αξία του LLM (π.χ., όπως αυτές που εκφράζει ο Τσόμσκι) είναι παλιομοδίτικα (θυμίζουν την απόρριψη του perceptron από τον Minsky και τον Papert) και δεν είναι ούτε παραγωγικές.

Η ιταλική απαγόρευση της χρήσης ChatGPT εγείρει επίσης ζητήματα που πρέπει να αντιμετωπιστούν. Το πιο σημαντικό είναι η συνεχιζόμενη μη εξουσιοδοτημένη χρήση προσωπικών δεδομένων

Εκπαίδευση LLM, η οποία, τουλάχιστον εν μέρει, τροφοδοτείται από δεδομένα χρηστών που μπορούν να αποκτηθούν, π.χ. κατά τη διάρκεια συνεδριών συνέντευξης LLM. Περιττό να πούμε ότι τέτοιοι διάλογοι συνεδριών είναι ιδιοκτησία κάθε συνεντευκτής, τουλάχιστον το μέρος που αντιστοιχεί στις απαντήσεις και τα σχόλιά του/του. Δυστυχώς, οι προγραμματιστές LLM χρησιμοποιούν το παλιό τέχνασμα για την κατάχρηση των δεδομένων των συνεντευξιαζόμενων: ​​προσφέρουν δωρεάν πρόσβαση σε LLM σε αντάλλαγμα τη χρήση τέτοιων δεδομένων στην εκπαίδευση LLM, χωρίς να αναφέρουν τους στόχους τους και τα σχετικά πρωτόκολλα χρήσης δεδομένων. Αυτό έχει συμβεί πάρα πολλές φορές στο παρελθόν, π.χ. για την εκπαίδευση συστημάτων συστάσεων ιστού, μηχανών αναζήτησης ιστού και δημιουργία προφίλ κοινωνικών μέσων. Μια τέτοια χρήση προσωπικών δεδομένων παραβιάζει τα δικαιώματα πνευματικής ιδιοκτησίας και το απόρρητο των χρηστών. Επιπλέον, τέτοιες συναλλαγές ανταλλαγής εγείρουν σοβαρά ζητήματα φορολογίας πολλών δισεκατομμυρίων. Τα κράτη σε όλο τον κόσμο ήταν πολύ αργά στη ρύθμιση των σχετικών συναλλαγών. Ωστόσο, σε σύγκριση με την αδράνεια του παρελθόντος, παρατηρούμε αυξημένη επαγρύπνηση ορισμένων ευρωπαϊκών εθνικών αρχών (π.χ. στην Ιταλία) για τέτοια θέματαΛόγοι του Γενικού Κανονισμού Προστασίας Δεδομένων (GDPR).

Φυσικά, η έρευνα AI μπορεί να γίνει διαφορετική: πιο ανοιχτή, δημοκρατική και επιστημονική. Ακολουθεί μια προτεινόμενη λίστα σημείων για το σκοπό αυτό:

    • Ο πρώτος λόγος για σημαντικά ερευνητικά ζητήματα τεχνητής νοημοσύνης που έχουν εκτεταμένο κοινωνικό αντίκτυπο θα πρέπει να ανατεθεί σε εκλεγμένα κοινοβούλια και κυβερνήσεις και όχι σε εταιρείες ή μεμονωμένους επιστήμονες.
    • Θα πρέπει να καταβληθεί κάθε προσπάθεια για να διευκολυνθεί η διερεύνηση των θετικών πτυχών της τεχνητής νοημοσύνης στην κοινωνική και οικονομική πρόοδο και να ελαχιστοποιηθούν οι αρνητικές της πτυχές.
    • Ο θετικός αντίκτυπος των συστημάτων τεχνητής νοημοσύνης μπορεί να αντισταθμίσει πολύ τις αρνητικές πτυχές τους, εάν ληφθούν κατάλληλα ρυθμιστικά μέτρα. Η τεχνοφοβία ούτε δικαιολογείται, ούτε λύση.
    • Κατά την άποψή μου, η μεγαλύτερη τρέχουσα απειλή προέρχεται από το γεγονός ότι τέτοια συστήματα τεχνητής νοημοσύνης μπορούν εξ αποστάσεως να εξαπατήσουν ΠΟΛΛΟΥΣ κοινούς που έχουν μικρή (ή μέση) εκπαίδευση ή/και μικρή ικανότητα διερεύνησης. Αυτό μπορεί να είναι εξαιρετικά επικίνδυνο για τη δημοκρατία και κάθε μορφή κοινωνικοοικονομικής προόδου.
    • Στο εγγύς μέλλον, θα πρέπει να αντιμετωπίσουμε τη μεγάλη απειλή που προέρχεται από τη χρήση LLM σε παράνομες δραστηριότητες (η εξαπάτηση στις πανεπιστημιακές εξετάσεις είναι μια μάλλον καλοήθης χρήση στο χώρο των σχετικών εγκληματικών δυνατοτήτων).
    • Με βάση τα παραπάνω, τα συστήματα τεχνητής νοημοσύνης θα πρέπει: α) να απαιτείται από το διεθνές δίκαιο να είναι εγγεγραμμένα σε ένα «μητρώο συστημάτων τεχνητής νοημοσύνης» και β) να ειδοποιούν τους χρήστες τους ότι συνομιλούν ή χρησιμοποιούν τα αποτελέσματα ενός συστήματος τεχνητής νοημοσύνης.
    • Η ισορροπία της έρευνας για την τεχνητή νοημοσύνη μεταξύ Ακαδημίας και Βιομηχανίας θα πρέπει να επανεξεταστεί για να μεγιστοποιήσει το ερευνητικό αποτέλεσμα, διατηρώντας παράλληλα την ανταγωνιστικότητα και επιβραβεύοντας τους κινδύνους Ε&Α που αναλαμβάνονται.
    • Οι εκπαιδευτικές πρακτικές θα πρέπει να επανεξεταστούν σε όλα τα επίπεδα εκπαίδευσης για να μεγιστοποιηθεί το όφελος από τις τεχνολογίες τεχνητής νοημοσύνης, δημιουργώντας παράλληλα μια νέα φυλή δημιουργικών και προσαρμοστικών πολιτών και επιστημόνων (AI).
    • Ο αντίκτυπος του LLM στην εργασία και τις αγορές θα είναι πολύ θετικός, μεσομακροπρόθεσμα.
    • Καθώς τα συστήματα τεχνητής νοημοσύνης έχουν τεράστιο κοινωνικό αντίκτυπο και προς τη μεγιστοποίηση του οφέλους και της κοινωνικοοικονομικής προόδου, οι προηγμένες βασικές τεχνολογίες συστημάτων τεχνητής νοημοσύνης θα πρέπει να γίνουν ανοιχτές.
    • Τα δεδομένα που σχετίζονται με την τεχνητή νοημοσύνη θα πρέπει να εκδημοκρατιστούν (τουλάχιστον εν μέρει) προς τη μεγιστοποίηση του οφέλους και την κοινωνικοοικονομική πρόοδο.
    • Πρέπει να προβλεφθούν κατάλληλα ισχυρά συστήματα χρηματοοικονομικής αποζημίωσης για τους πρωταθλητές τεχνολογίας τεχνητής νοημοσύνης για να αντισταθμίσουν τυχόν απώλεια κέρδους, λόγω του προαναφερθέντος ανοικτού χαρακτήρα και να εξασφαλίσουν ισχυρές μελλοντικές επενδύσεις στην Ε&Α της τεχνητής νοημοσύνης (π.χ. μέσω κατοχύρωσης διπλωμάτων ευρεσιτεχνίας τεχνολογίας, υποχρεωτικών συστημάτων αδειοδότησης).
    • Τα ζητήματα πνευματικής ιδιοκτησίας που σχετίζονται με τη χρήση ιδιωτικών δεδομένων στην εκπαίδευση LLM θα πρέπει να αντιμετωπίζονται με τρόπο που να ανταμείβει τα άτομα των οποίων τα δεδομένα χρησιμοποιούνται σε τέτοιες εργασίες.
    • Θα πρέπει να δημιουργηθούν και να ενισχυθούν οι κατάλληλοι ρυθμιστικοί/εποπτείας/χρηματοδοτικοί μηχανισμοί τεχνητής νοημοσύνης για να διασφαλιστούν τα παραπάνω.
    • Οι ρυθμιστικές δραστηριότητες δεν θα πρέπει να εμποδίζουν την περαιτέρω ανάπτυξη και έρευνα LLM για την κατανόηση της βελτίωσης των λειτουργικοτήτων τους.

    Πολλά τέτοια σημεία έχουν ήδη συζητηθεί στο εργαστήριο AI Mellontology του 2021 και περιλαμβάνονται επίσης στο πρόσφατο βιβλίο μου για την «Επιστήμη και Κοινωνία AI» [PIT2023].

*Ι. Πήτας

Καθηγητής ΑΠΘ

Πρόεδρος της Διεθνούς Ακαδημίας Διδακτόρων AI ( AIDA )

Τελευταία τροποποίηση στις Τρίτη, 04 Απριλίου 2023 18:01