«Για να διασφαλιστεί πως η γνώση θα είναι υπέρ της ανθρωπότητας, απαιτείται η σύγχρονη παρουσία ανθρώπου – μηχανής σε ένα όμορφο τανγκό μάθησης», αναφέρει ο Ειδικός στη Βιοπληροφορική
Η Τεχνητή Νοημοσύνη είναι εδώ με την υπόσχεση να βελτιώσει και να κάνει πιο εύκολη τη ζωή μας. Ταυτόχρονα – με πολλή, ίσως, δόση επιστημονικής φαντασίας, με ακόμη περισσότερη άγνοια και τις πληροφορίες να είναι συγκεχυμένες στο μυαλό μας, μαζί με τους υπαρκτούς κινδύνους- προβάλλει μπροστά μας ένα απρόβλεπτο μέλλον, που τρομάζει στην προοπτική μιας ανεξέλεγκτης ανάπτυξης της τεχνολογίας.
Το καλύτερο αντίδοτο του φόβου είναι η γνώση και ο Κώστας Σγάντζος, ο Καλαματιανός φυσικός-βιοχημικός, με ειδίκευση στη Βιοπληροφορική, ο οποίος εργάζεται σε θέματα ασφαλούς ανάπτυξης και ηθικής της Τεχνητής Νοημοσύνης, μέσα από την παρακάτω συνέντευξη είναι εδώ για να επιχειρήσει να βάλει τα πράγματα στη σωστή τους διάσταση…
-Σε τι επίπεδο βρίσκεται η τεχνητή νοημοσύνη το 2024;
Αξίζει
να αναφέρουμε πως το πρώτο μοντέλο Τεχνητής Νοημοσύνης (με τη μορφή που το
ορίζει ο περισσότερος κόσμος σήμερα) κατασκευάστηκε από τον Joseph Weizenbaum
το 1967 και ονομαζόταν ELIZA. Αυτό δημιουργήθηκε έτσι
ώστε να προσομοιάζει τη συζήτηση με έναν ψυχοθεραπευτή. Σας πληροφορώ πως
υπήρχε αρκετός κόσμος τότε που πίστευε ακράδαντα πως τους καταλαβαίνει! Κάποιοι,
μάλιστα, νόμιζαν πως είναι ερωτευμένοι μαζί του!
Αλλά ας κάνουμε ένα βήμα πίσω και ας ξεκινήσουμε ορίζοντας τι είναι η Τεχνητή Νοημοσύνη
(ΤΝ). Θεωρώ προσωπικά πως ο όρος είναι μάλλον ατυχής, παρότι ο όρος εφευρέθηκε
το 1956 από το μεγάλο John McCarthy,
γιατί αυτό που ονομάζουμε “Artificial Intelligence”
(Τεχνητή Εξυπνάδα) δεν μπορεί να αποδοθεί ορθά δίχως να ορίσουμε πρώτα τι
θεωρούμε “intelligence” (εξυπνάδα). Ένας γενικά παραδεκτός ορισμός της ΤΝ
αναφέρεται σε υπολογιστικά συστήματα που μπορούν να κάνουν πράγματα που συνήθως
κάνουν οι άνθρωποι. Μερικά από αυτά είναι η επίλυση προβλημάτων, ο αυτοματισμός
εργασιών ή η λήψη απλών καθημερινών αποφάσεων, αλλά δεν είναι απαραίτητος ο
περιορισμός σε αυτά.
Τα τελευταία πέντε χρόνια είχαμε μια μεγάλη ανάπτυξη της ΤΝ με την έλευση των
Μεγάλων Γλωσσικών Μοντέλων (Large Language Models) σαν το ChatGPT. Πολύς κόσμος είναι
ενθουσιασμένος με αυτά και υπάρχει, όντως, πολύ μεγάλη πρόοδος της τεχνολογίας
πάνω σε αυτόν τον τομέα. Παρ’ όλα αυτά, υπάρχει μια υπερβολή στο τι μπορούν
αυτά τα μοντέλα να κάνουν και τι όχι. Γι’ αυτό εν τάχει θέλω να αναφέρω, με όσο
πιο απλό τρόπο μπορώ, πώς αυτά τα υπολογιστικά μοντέλα δουλεύουν: Τα μοντέλα
αυτά περιέχουν έναν τεράστιο όγκο από κείμενο που οι ερευνητές μάζεψαν από το ίντερνετ
και αυτό είναι ειδικά καταμερισμένο σε λέξεις και τμήματα λέξεων που
ονομάζονται “tokens”. Κάθε φορά που «ρωτάμε» ένα μοντέλο κάτι, αυτό ψάχνει να
βρει την επόμενη πιθανολογικά σωστότερη λέξη (token) που ακολουθεί την
πρότασή μας. Για παράδειγμα στην πρόταση: «Μια φορά και έναν…», η πιο πιθανή απάντηση
είναι «καιρό».
Επειδή είναι εξαιρετικά αποτελεσματικά στο να μαντεύουν μια πιθανή σειρά λέξεων, δίνεται η εντύπωση στον κόσμο πως το μοντέλο «καταλαβαίνει» αυτά που λέει. Στην πραγματικότητα, τα μοντέλα αυτά είναι εξαιρετικά καλά στο να κατασκευάζουν ιστορίες, που κάποιες φορές μάλιστα δε βγάζουν νόημα. Το φαινόμενο αυτό ονομάζεται “Hallucination” (παραίσθηση) και υπάρχουν αρκετοί επιστήμονες που προσπαθούν να το περιορίσουν μέσω διάφορων τεχνικών με περίεργα ακρωνύμια όπως RLHF, RAG κ.λπ. Η ουσία είναι πως κανένα από αυτά τα μοντέλα δεν «καταλαβαίνει» αυτά που λέει όπως ένας άνθρωπος. Θα έλεγα, από το 1967 και το ELIZA έχουμε κάνει ουσιαστική υπολογιστική πρόοδο, με τα μεγάλα γλωσσικά μοντέλα όσον αφορά στην ακρίβεια των απαντήσεων. Παρ’ όλα αυτά, όπως και το ELIZA τότε, ούτε αυτά αντιλαμβάνονται τι λένε, παρ’ όλο που οι περισσότεροι χρήστες πιστεύουν πως το κάνουν.
-Πώς και πόσο μπορεί να αλλάξει τη ζωή του καθημερινού ανθρώπου η τεχνητή νοημοσύνη (ποια είναι τα συνώνυμα);
Η ΤΝ έχει ήδη αλλάξει τη ζωή μας και, μάλιστα, χωρίς να το πολυ-καταλαβαίνουμε. Οι πιο απλές μορφές της είναι σε καθημερινή χρήση στα κινητά μας τηλέφωνα με προγράμματα όπως το “Auto-correct”, το οποίο λειτουργεί όπως ακριβώς ένα μεγάλο γλωσσικό μοντέλο (αλλά με μικρότερο όγκο δεδομένων εκμάθησης). Επίσης, ΤΝ μπορούν να θεωρηθούν οι αυτοματισμοί που χρησιμοποιούνται στα αυτοκίνητά μας, στις οικιακές μας συσκευές, στα smart watches, στα αεροπλάνα και στα διαστημόπλοια. Όλα αυτά χρησιμοποιούν μία ή περισσότερες μορφές ΤΝ. Θα έλεγα, λοιπόν, πως ήδη η τεχνολογία αυτή έχει αλλάξει η ζωή μας. Κάποια συνώνυμα θα έλεγα πως είναι «έξυπνοι αυτοματισμοί», «προγραμματισμένη ρομποτική», «σύνθετη τηλεματική», «νευρωνικά δίκτυα», αλλά δε νομίζω πως τα συνώνυμα της ΤΝ περιορίζονται μόνο σε αυτά.
-Ποιοι είναι οι πραγματικοί κίνδυνοι από την ανάπτυξη της Τεχνητής Νοημοσύνης όπως τη μελετάς μέσα από τις έρευνές σου (τι ακριβώς κάνεις);
Ας ξεκινήσω από το τελευταίο: «Τι ακριβώς κάνεις;». Καλή ερώτηση! Η απάντηση που μου έρχεται πρώτα στο μυαλό όταν με ρωτούν γι’ αυτό, είναι μια επιγραφή που είδα σε μια πινακίδα στο πίσω μέρος ενός αυτοκινήτου πριν από πολλά χρόνια στην Αμερική, που έλεγε: “don’t follow me, I’ m lost too” (μη με ακολουθείτε, και εγώ έχω χαθεί…).
Πιο σοβαρά τώρα, η έρευνά μου έχει να κάνει με την πιο ανεπτυγμένη μορφή της ΤΝ, που ονομάζεται «Γενική Μορφή ΤΝ» (Artificial General Intelligence ή AGI). Αυτή η μορφή, αν ποτέ κατασκευαστεί, θα είναι ό,τι πιο κοντινό φανταζόμαστε στο ανθρώπινο μυαλό. Για το λόγο αυτό, πρέπει να διασφαλίσουμε πως θα είναι εύκολο να την ελέγξουμε. Και εδώ τίθενται κι άλλα ερωτήματα: Ποιος θα την ελέγχει, και ποιος θα μπορεί να τη χρησιμοποιεί; Το 2022, λοιπόν, δημοσιεύσαμε μια ερευνητική εργασία που προτείνει έναν τρόπο να δημιουργήσουμε μια τέτοια μορφή ΤΝ, χρησιμοποιώντας πολλαπλά κυτταρώδη αυτόματα σε ένα υπερασφαλές δικτυακό περιβάλλον, όπου όλοι οι συμμετέχοντες θα μπορούν να την ελέγχουν καθημερινά και να τη χρησιμοποιούν επίσης ελεύθερα. Εντοπίζω το μεγαλύτερο κίνδυνο αυτής της τεχνολογίας στον περιορισμό του ελέγχου της από μια εταιρεία ή μια χώρα. Οποιοσδήποτε με τέτοια υπολογιστική δύναμη θα μπορεί πρακτικά να ελέγξει οποιονδήποτε άλλον. Ευτυχώς για μας, η παρούσα τεχνολογία των Μεγάλων Γλωσσικών Μοντέλων δεν είναι επαρκής για τη δημιουργία μιας AGI (όσο και να διατείνονται κάποιοι συνάδελφοι πως σε 2-3 χρόνια το πολύ θα έχουμε μια έτοιμη). Ο τρόπος λειτουργίας τους απαγορεύει την εμφάνιση προηγμένων μορφών ΤΝ. Παρ’ όλα αυτά κάποιος, ακόμη και σήμερα, μπορεί να χρησιμοποιήσει τα μοντέλα αυτά για διάφορες κακόβουλες ενέργειες. Μερικές από αυτές είναι η δημοσιοποίηση ψευδών ειδήσεων, φωτογραφιών, ή ακόμη και βίντεο που δε συνέβησαν ποτέ. Το ερώτημα, λοιπόν, είναι ποιος ελέγχει αυτές τις μηχανές; Και η απάντηση θα είναι πάντα «ο άνθρωπος». Τα μοντέλα αυτά δε θα κάνουν ποτέ κάτι «από μόνα τους». Πάντα θα χρειάζεται ο άνθρωπος. Γι’ αυτό το λόγο προτείναμε το 2023, σε μια άλλη δημοσίευσή μας, έναν τρόπο ελέγχου όλων αυτών των μηχανών μέσω καταγραφής όλων των εντολών που δίνουν οι χρήστες (ψευδώνυμα) σε ένα ανοικτά προσπελάσιμο κατάλογο, που ο καθένας θα μπορεί να διαβάζει. Η ιδέα είναι πως αυτοί που θέλουν να χρησιμοποιήσουν τα μοντέλα για κακό σκοπό, θα διστάσουν να το κάνουν όταν ξέρουν πως όλος ο κόσμος θα μπορεί να τους δει.
-Ποια είναι τα κύρια ηθικά διλήμματα που προκύπτουν από την ανάπτυξη της τεχνητής νοημοσύνης;
Θα
έλεγα πως είναι αρκετά, αλλά ξεχωρίζω τρία σημαντικά. Το πρώτο για μένα είναι
τα Πνευματικά Δικαιώματα. Είναι ηθικό να χρησιμοποιείται η γνώση συγγραφέων ή
καλλιτεχνών εν αγνοία τους, για τη μηχανική μάθηση μοντέλων, προκειμένου να
δημιουργούν παρόμοια κείμενα ή σχέδια; Τα μοντέλα αυτά εκπαιδεύτηκαν σε έναν
τεράστιο όγκο κειμένου και εικόνων χωρίς να ερωτηθεί κανείς από τους
δημιουργούς, επειδή το υλικό αυτό «υπήρχε στο ίντερνετ». Μπορεί, λόγου χάρη,
σήμερα κάποιος να πει στο μοντέλο να γράψει μια νέα ιστορία στο στυλ του Ισαάκ
Ασίμοφ και να ισχυριστεί πως «ήταν ένα χαμένο κείμενο του συγγραφέα που βρέθηκε
σε ένα συρτάρι». Φανταστείτε πως το ίδιο μπορεί να γίνει με μοντέλα που
σχεδιάζουν εικόνες ή φωτογραφίες. Πρέπει, λοιπόν, να υπάρξει κάποιος έλεγχος.
Το δεύτερο είναι η απώλεια θέσεων εργασίας. Στο άμεσο ή πιο μακρινό μέλλον θα
υπάρχουν δύο κατηγορίες ανθρώπων: Αυτοί που χρησιμοποιούν την ΤΝ και αυτοί που
δεν τη χρησιμοποιούν. Τονίζω πως η ΤΝ δεν πρόκειται να πάρει τη δουλειά των
ανθρώπων. Άλλοι άνθρωποι που γνωρίζουν να χειρίζονται την ΤΝ θα πάρουν τη
δουλειά ανθρώπων που δεν ξέρουν να τη χειρίζονται.
Το τρίτο είναι η διαφάνεια των αποφάσεων που προτείνει η ΤΝ σε σχέση με ανθρώπινα ζητήματα. Για παράδειγμα, η εξέταση βιογραφικών από ΤΝ προκειμένου να γίνει μια πρόσληψη. Πρέπει να γνωρίζουμε επακριβώς πώς λαμβάνεται η απόφαση, τι κριτήρια έπαιξαν ρόλο και αν υπήρξε προκατάληψη στην επιλογή. Το τελευταίο είναι το δεύτερο μεγάλο πρόβλημα της ΤΝ και των μεγάλων γλωσσικών μοντέλων, και οφείλεται στις προσωπικές προκαταλήψεις της ομάδας που κάνει τη μηχανική μάθηση (Bias). Όλα αυτά πρέπει να είναι ξεκάθαρα και απαιτείται διαφάνεια και λεπτομερείς τεχνικές εξηγήσεις.
-Τι θα πρέπει να γίνει για να διασφαλιστεί ότι όλη αυτή η γνώση θα είναι υπέρ της ανθρωπότητας;
Θα ήθελα να επικοινωνήσω μέσω της εφημερίδας σας πως υπάρχει κάτι που δεν είναι αρκετά γνωστό. Πρόσφατα έγινε μια δημοσίευση για τη μείωση της απόδοσης των μοντέλων ΤΝ που εκπαιδεύτηκαν σε υλικό που παράχθηκε από ΤΝ. Τα νεότερα μοντέλα ήταν, με απλά λόγια, πιο «χαζά» από τα μοντέλα που εκπαιδεύτηκαν πρωταρχικά. Ο λόγος είναι πως το σύνολο δεδομένων που εκπαιδεύτηκαν τα νεότερα, υστερούσε σε διαφοροποίηση πληροφοριών που δε χρησιμοποιούνταν συχνά, και ακολούθως είχε αφαιρεθεί όγκος δεδομένων που το δευτερεύον μοντέλο θεωρούσε περιττό σε σχέση με το πρωταρχικό.
Με απλά λόγια, στην πρόοδο της ΤΝ ο άνθρωπος είναι και θα είναι το μέτρο και η πηγή των δεδομένων. Αυτό θα γίνεται εμφανές και χειρότερο, όσο το διαδίκτυο κατακλύζεται από περιεχόμενο δημιουργημένο από ΤΝ. Ήδη τα αποτελέσματα των μηχανών αναζήτησης έχουν πέσει σε ποιότητα και αυτό θα επιδεινωθεί στα επόμενα χρόνια. Κάτι που είναι ξεκάθαρο σε όλους εμάς που ασχολούμαστε με την ΤΝ είναι το εξής: Μπορούμε να βελτιώσουμε τις υπολογιστικές μεθόδους των μοντέλων, αλλά από μόνα τους δε θα παράγουν νέα γνώση. Μόνο οι άνθρωποι είναι ικανοί γι’ αυτό, διότι δημιουργούμε βάσει αντίληψης και κινήτρων. Τα σημερινά μοντέλα δεν έχουν τίποτα από τα δύο. Για να διασφαλιστεί, λοιπόν, πως όλη αυτή η γνώση θα είναι υπέρ της ανθρωπότητας, θα έλεγα πως απαιτείται η σύγχρονη παρουσία ανθρώπου – μηχανής σε ένα όμορφο τανγκό μάθησης. Χρειάζονται δύο για να χορέψεις.
-Η χώρα μας πού βρίσκεται σε όλη αυτή την ιστορία; Και όσον αφορά στην ανάπτυξη-χρήση Τεχνητής Νοημοσύνης και όσον αφορά στο θέμα της αντιμετώπισης των κινδύνων;
Είμαι αρκετά χαρούμενος με αυτά που συμβαίνουν τελευταία στην Ελλάδα. Η χώρα μας ακολουθεί την τεχνολογία και αρκετοί συνάδελφοι φαίνεται πως ενδιαφέρονται πολύ για τις νέες εξελίξεις. Πριν από λίγες ημέρες έγινε ένα Συμπόσιο για την Ηθική της ΤΝ στην Αθήνα, το οποίο διοργανώθηκε από τον καθηγητή Ιωάννη Τασιούλα του Πανεπιστημίου της Οξφόρδης και τον Josiao Ober, καθηγητή στο Στάνφορντ, με θέμα την Ηθική του Αριστοτέλη στην ΤΝ.
Λόγω επαγγελματικών υποχρεώσεων δεν μπόρεσα να είμαι, αλλά το περισσότερο υλικό υπάρχει στο διαδίκτυο. Υπάρχει, επίσης, από το 2023 μια ειδική συμβουλευτική επιτροπή ΤΝ με επικεφαλής τον καθηγητή του ΜΙΤ, Κωνσταντίνο Δασκαλάκη. Υπάρχουν εταιρείες και ερευνητές που χρησιμοποιούν την τεχνολογία για να κατασκευάσουν έξυπνα drones που θα μπορούν να ελέγχουν καλλιέργειες, ή να καταλαβαίνουν πότε πάνω από μια περιοχή ξεκίνησε πυρκαγιά. Επίσης, για να κατασκευάζουν αυτοκίνητα που θα αποφεύγουν τις συγκρούσεις, ή μοντέλα που θα φτιάχνουν νέα φάρμακα.
Η Ελλάδα προχωρά και συνεργάζεται. Έχουμε καλό υλικό και λαμπρά μυαλά. Νομίζω πως στεκόμαστε επάξια όσον αφορά στις τεχνολογικές εξελίξεις της ΤΝ απέναντι σε μεγαλύτερες χώρες. Οι κίνδυνοι, όπως είπα και πιο πάνω, είναι πάντα υπαρκτοί. Με τη σωστή πρόβλεψη, όμως, όλα λύνονται.
-Το δικό σου ενδιαφέρον πώς ξεκίνησε;
Όταν έκανα το μεταπτυχιακό μου στην Υπολογιστική Βιολογία και Βιοπληροφορική, στο Πανεπιστήμιο Θεσσαλίας, ασχολήθηκα πιο σοβαρά με τους γενετικούς αλγόριθμους. Ήταν ένα πεδίο που θεώρησα πως είχε περιθώριο να δώσει κάτι παραπάνω από τις υπάρχουσες τεχνικές σε σχέση με τις συμβατικές στατιστικές ευρεστικές μεθόδους, όπως τα Markov, Chains που χρησιμοποιούνταν κατά κόρον στην επίλυση δύσκολων προβλημάτων, όπως η αναδίπλωση πρωτεϊνών (Protein, Folding, problem).
Κάπου εκεί ασχολήθηκα με μια ειδική μορφή γενετικών αλγορίθμων που ονομάζονται κυτταρώδη αυτόματα. Αυτά ως ιδέα ξεκίνησαν από τον Stanislav, Ulam και τον John Von Neumann το 1939 και αποτελούν την ψηφιακή μορφή ενός βιολογικού κυττάρου. Μια ειδική κατηγορία από αυτά είχαν παρόμοιες υπολογιστικές δυνατότητες με αυτές που είχε και ένας υπολογιστής, αυτά ονομάζονται Turing-Complete και μπορούν να εκτελέσουν κάθε υπολογισμό που ένας κανονικός υπολογιστής θα μπορούσε να εκτελέσει.
Συνδύασα, λοιπόν, αυτή την ιδέα με ένα ασφαλές δίκτυο υπολογιστών που βασίζεται στην τεχνολογία του Διαμοιραζόμενου Καταλόγου και έτσι έκανα την πρώτη μου ακαδημαϊκή παρουσίαση το 2017 στο 12ο Διεθνές Συνέδριο Βιολογίας & Βιοπληροφορικής στο Ινστιτούτο Pasteur στην Αθήνα. Η εργασία μου έλαβε το 2ο βραβείο από ένα σύνολο περίπου 40 εργασιών. Μετά άρχισε ένα ταξίδι που δεν περίμενα ποτέ. Έχω κάνει διαλέξεις στο Ibaraki University στην Ιαπωνία το 2019, στην Κύπρο, στη Ζυρίχη, στο Λονδίνο, στη Μάλτα, στην Αίγυπτο, και έχω συμμετάσχει ως τώρα σε πάνω από 10 διεθνή συνέδρια. Και το ταξίδι στη γνώση συνεχίζεται…
-Το τρομακτικό είναι ότι θα βλέπεις ανθρώπους και δε θα ξέρεις αν είναι άνθρωποι, ήταν το σχόλιο μιας συναδέλφου… Μπορεί να συμβεί κάτι τέτοιο;
Αν και δε μου αρέσει να κάνω προβλέψεις, νομίζω πως όχι στα χρόνια που εμείς θα είμαστε ζωντανοί. Τα μεγάλα γλωσσικά μοντέλα εκπαιδεύτηκαν σε κείμενο που υπάρχει στο ίντερνετ. Όλος ο όγκος κειμένου που έχει αυτή τη στιγμή ο παγκόσμιος ιστός υπολογίζεται σε περίπου 10^13 bytes. Ο ανθρώπινος εγκέφαλος ενός 4χρονου παιδιού έχει λάβει μόνο από οπτική πληροφορία όγκο δεδομένωντης τάξης των 10^15 bytes. Αυτό θα πει πως ένα τετράχρονο παιδί έχει 2 τάξεις μεγέθους παραπάνω πληροφορία στο κεφαλάκι του από ό,τι όλα τα μεγαλύτερα datacenters του πλανήτη μαζί. Τεχνολογικά, δεν είμαστε καν κοντά.
Από την άλλη, έχουμε ανθρώπους που πιστεύουν πως τα μεγάλα γλωσσικά μοντέλα σήμερα έχουν συνείδηση και είναι φυλακισμένα σε ένα κουτί μόνο και μόνο επειδή τους το γράφουν. Φαντάζομαι πως κάτω από παρόμοιες συνθήκες κάποιοι θα πιστέψουν πως μπορεί να συμβεί κάτι τέτοιο, έστω και αν ανήκει στη σφαίρα της φαντασίας.
Ο Turing περιέγραψε πρώτος αυτό το φαινόμενο ως «Το παιχνίδι της μίμησης». Η γενική θεώρηση είναι η εξής: Αν κάτι μπορεί να μας πείσει πως είναι τόσο έξυπνο όσο ένας άνθρωπος, έχει σημασία αν τελικά είναι; Υπό αυτό το πρίσμα ίσως η συνάδελφός σας να έχει δίκιο…
-Η AI φέρνει τον υπεράνθρωπο ή θα μας οδηγήσει στον αφανισμό;
Η άποψή μου είναι πως τίποτα από τα δύο δεν πρόκειται να συμβεί. Και τα δύο είναι ακραία σενάρια έργων επιστημονικής φαντασίας, που θα έλεγα πως κατηγοριοποιούνται στα B-Movies. Θέλω να αναφέρω εδώ πως ο κόσμος που πιστεύει κάτι τέτοιο δεν το κάνει χωρίς λόγο. Έχει οδηγηθεί εκεί και, μάλιστα, από ανθρώπους σχετικούς με το χώρο της ΤΝ.
Θα πρέπει, παρ’ όλα αυτά, να αναζητήσουμε τα κίνητρα των ανθρώπων που επικοινωνούν τέτοιες ιδέες προτού τις ενστερνιστούμε και τις θεωρήσουμε σωστές. Οι περισσότεροι από αυτούς αναζητούν χρηματοδοτήσεις για να υλοποιήσουν ιδέες που δεν είναι καν υλοποιήσιμες. Άλλοι το κάνουν για προσωπική προβολή. Από την άλλη, φταίνε και τα ΜΜΕ που λειτουργούν με τη λογική του “click-bait”. Ο φόβος, όπως πολύ καλά γνωρίζετε ως δημοσιογράφος, πουλά περισσότερο από τη λογική.
-Ποιος είναι ο δικός σου φόβος σχετικά και τι σε κάνει να αισιοδοξείς;
Ο φόβος μου αφορά στη χρήση (ως εργαλείο) της ΤΝ για το κακό της ανθρωπότητας. Η δουλειά μου ως τώρα έχει επικεντρωθεί στο πώς θα μπορέσουμε να το αποφύγουμε αυτό. Ως είδος, από την αρχή της ύπαρξής μας, είμαστε φοβερά αποτελεσματικοί στο να κατασκευάζουμε όπλα για να εξαλείψουμε ο ένας τον άλλον. Πρέπει να καταλάβουμε όλοι πως είμαστε ένα λογισμικό (software) που υπάρχει μόνο σε ένα αντίτυπο επάνω σε ένα μόνο υπολογιστή (hardware), που λέγεται Γη. Αν θέλουμε όλη αυτή η πρόοδος του πολιτισμού μας να μη χαθεί, πρέπει να επικεντρωθούμε στην επέκταση της ύπαρξής μας και κάπου αλλού. Αισιοδοξώ βλέποντας νέους ανθρώπους να καταπιάνονται με πράγματα που θα προχωρήσουν τον κόσμο μπροστά. Ελπίζω σε ένα καλύτερο μέλλον, όπου ο στόχος των ανθρώπων δε θα είναι πώς θα κατασκευάσουν νέα όπλα, αλλά πώς θα μπορέσουν να επεκτείνουν την ύπαρξη του είδους μας πέραν αυτού του πλανήτη.
-Πώς εκτιμάς ότι θα είναι ο κόσμος μας έπειτα από 5-10 και έπειτα από 50-100 χρόνια;
Η κλίμακα Kardashev κατηγοριοποιεί τους πολιτισμούς βάσει της ενέργειας που καταναλώνουν. Ο μεγάλος Carl Sagan είχε υπολογίσει τον τωρινό πολιτισμό μας γύρω στο 0,72 της κατηγορίας 1 της κλίμακας το 1990. Ένας τέτοιος πολιτισμός ελέγχει πλήρως τον πλανήτη που κατοικεί και έχει δαμάσει όλη του την ενέργεια. Έχει δημιουργήσει αποικία σε τουλάχιστον έναν άλλο πλανήτη και μπορεί να ελέγχει τη σεισμική δραστηριότητα, τα καιρικά φαινόμενα, ενώ μπορεί να δημιουργεί πόλεις στον αέρα και κάτω από το νερό των ωκεανών. Ελπίζω να φτάσουμε και να ξεπεράσουμε το συντομότερο αυτή την κατηγορία και η ΤΝ να αποτελέσει έναν καταλύτη στην πορεία αυτή. Επίσης, ελπίζω να είμαστε εδώ να το δούμε.
Ποιος είναι ο Κώστας Σγάντζος…
Ο Κωνσταντίνος Σγάντζος είναι θεωρητικός φυσικός και βιοχημικός και κατέχει Μεταπτυχιακό Δίπλωμα Εξειδίκευσης στην Υπολογιστική Βιολογία και Βιοπληροφορική.
Εργάζεται στη ΔΕΗ ως επικεφαλής του Υποτομέα Περιβάλλοντος της Διεύθυνσης Λιγνιτικού Κέντρου Μεγαλόπολης. Έχει λάβει μέρος σε περισσότερα από 10 διεθνή, κυβερνητικά και εμπορικά συνέδρια ως κεντρικός ομιλητής και ως συμμετέχων σε πάνελ ομιλητών.
Η εξειδίκευσή του αφορά στα Πολλαπλά Κυτταρώδη Αυτόματα και στη Γενική Μορφή Τεχνητής Νοημοσύνης, και πώς οι άνθρωποι μπορούν να φτιάξουν μια τέτοια υπολογιστική μορφή σε ένα υπερασφαλές δικτυακό περιβάλλον.
Από το 2021 είναι ακαδημαϊκός συνεργάτης στο Ερευνητικό Ινστιτούτο Επιστήμης και Μηχανικής του Πανεπιστημίου Sharjah στα Ενωμένα Αραβικά Εμιράτα. Είναι, επίσης, ερευνητής στην Ηθική της Τεχνητής Νοημοσύνης και υποψήφιος διδάκτωρ στη Σχολή Εφαρμοσμένων Μαθηματικών και Φυσικών Επιστημών στο Εθνικό Μετσόβιο Πολυτεχνείο.
Της Χριστίνας Ελευθεράκη