Στο τέλος θα κερδίσουν οι μηχανές;

Απο τον στις Μάρτιος 7, 2018

 

TerminatorΗ αλματώδης κι ολοένα αυξανόμενη τις τελευταίες δεκαετίες ανάπτυξη της τεχνολογίας έχει δημιουργήσει νέα δεδομένα και, πλέον, οποιοδήποτε σενάριο αφορά το μέλλον την ανθρωπότητας φαντάζει πιθανό.

Ένας από τους τομείς που απασχολεί έντονα την επιστημονική κοινότητα είναι αυτός της Τεχνητής Νοημοσύνης (ΤΝ) ή αλλιώς, της «επιστήμης και μεθοδολογίας της δημιουργίας νοούντων μηχανών» σύμφωνα με τον ορισμό του διακεκριμένου μαθηματικού Τζον Μακάρθι (1927-2011) που ήταν κι αυτός που επινόησε τον σχετικό όρο.

Οι τομείς όπου μπορεί να εφαρμοστεί η Τεχνητή Νοημοσύνη είναι πολυάριθμοι και αφορούν, μεταξύ άλλων, τους τομείς της οικονομίας, της υγείας, της εκπαίδευσης και των μεταφορών. Όλο και περισσότερες εταιρείες ρίχνουν χρήματα στον συγκεκριμένο κλάδο κι η εξέλιξή του τα επόμενα χρόνια αναμένεται να είναι ακόμα πιο εντυπωσιακή. Μέχρι το 2020, μάλιστα, τα έξοδα γύρω από τη συγκεκριμένη τεχνολογία παγκοσμίως υπολογίζεται ότι θα φτάσουν (ίσως και να ξεπεράσουν) τα 46 δις δολάρια.

Όλα καλά μέχρι εδώ, όμως το πρόβλημα ξεκινάει όταν μια τόσο εξελιγμένη μηχανή με αυξημένη νοημοσύνη απαιτείται να μπει σε καλούπι από ένα λιγότερο «έξυπνο» ον. Ένας χιμπατζής, για παράδειγμα, δεν θα μπορούσε ποτέ να ελέγξει τον άνθρωπο. Πώς, τότε, ο άνθρωπος θα καταφέρει να διαχειριστεί και να χρησιμοποιήσει όλη αυτή την τεχνολογία προς όφελος του χωρίς, ταυτόχρονα, να μπει σε κίνδυνο;

Ο μεγιστάνας στον τομέα της τεχνολογίας, Έλον Μασκ, έχει τονίσει σε πάρα πολλές περιπτώσεις το ρίσκο που μπορεί να επιφυλάσσει η ραγδαία εξέλιξη της Τεχνητής Νοημοσύνης, την οποία μάλιστα έχει χαρακτηρίσει ως τη «μεγαλύτερη απειλή για το ανθρώπινο είδος», προσθέτοντας ότι «στο τέλος, θα κερδίσουν οι μηχανές».

«Φέρνει κινδύνους και νέους τρόπους ώστε οι λίγοι να καταπιέζουν τους πολλούς. Μπορεί να φέρει κατάρρευση στην οικονομία» έχει αναφέρει με τη σειρά του ο Στίβεν Χόκινγκ, ενώ πολλοί άλλοι κάνουν λόγο για την πιθανότητα έναρξης του Τρίτου Παγκόσμιου Πολέμου.

Ρεαλισμός ή καταστροφολογία, το θέμα είναι ότι η ανάγκη ύπαρξης μέτρων ασφαλείας είναι υπαρκτή. «Πιστεύω ότι αν δεν ενεργήσουμε προληπτικά, υπάρχει πραγματικός κίνδυνος να δημιουργήσουμε έναν κόσμο που κανένας από εμάς δεν θέλει και χρειάζεται. Πρέπει να δουλέψουμε πολύ σκληρά ούτως ώστε τα οφέλη που μπορούν να προκύψουν να διανεμηθούν σε όλους κι όχι να εξυπηρετούν τα συμφέροντα μίας συγκεκριμένης ελίτ» τόνισε σε μια πρόσφατη συνέντευξή της η Τέρα Λάιονς, εκτελεστικός διευθυντής της «Σύμπραξης στην Τεχνητή Νοημοσύνη» («Partnership on Artificial Intelligence»), ενός μη κερδοσκοπικού οργανισμού που δημιουργήθηκε με σκοπό τη διασφάλιση της εφαρμογής της ΤΝ με τρόπο ωφέλιμο προς τον άνθρωπο και την κοινωνία.

Η συγκεκριμένη προσπάθεια δεν είναι η μόνη, καθώς υπάρχουν κι άλλοι οργανισμοί που εργάζονται για τον ίδιο σκοπό, όπως για παράδειγμα το «Ινστιτούτο του Μέλλοντος της Ανθρωπότητας» («Future of Humanity Institute») στην Οξφόρδη και το «Ινστιτούτο Έρευνας Μηχανικής Νοημοσύνης» (Machine Intelligence Research Institute – MIRI).

Στο τελευταίο έχει συνδράμει μέσω δωρεών του ιδρύματος REG (Raising for Effective Giving) κι η Λιβ Μπορί, περισσότερο γνωστή ως επαγγελματίας των παιχνιδιών με τράπουλα, αλλά και αριστούχος Αστροφυσικός του πανεπιστημίου του Μάντσεστερ: «Με συναρπάζει κάθε νέα τεχνολογία που θα μας επιτρέψει να γίνουμε πιο έξυπνοι και πιο… ανθεκτικοί. Βρισκόμαστε σε μια κρίσιμη καμπή της ιστορίας όπου φαίνεται ότι κάνουμε τα πάντα ώστε να καταστρέψουμε το περιβάλλον κι όλους τους φυσικούς πόρους. Η ανάπτυξη νέων τεχνολογιών με σκοπό την επίλυση όλων αυτών των προβλημάτων είναι πολύ σημαντική, όμως καλούμαστε επίσης να κάνουμε τα πάντα ώστε να διασφαλίσουμε ότι δεν θα συμβεί κάποιο ατύχημα» υποστήριξε πρόσφατα, δείχνοντας πιθανότατα τον τρόπο με τον οποίο θα πρέπει να χειριστούμε το συγκεκριμένο θέμα.

Κανείς δεν μπορεί να φρενάρει την ανάπτυξη της Τεχνητής Νοημοσύνης κι η ύπαρξη ισορροπίας και αυστηρού ελέγχου είναι ίσως το κλειδί για να χρησιμοποιηθεί ως εργαλείο στην υπηρεσία του ανθρώπου κι όχι ως ένας πιθανός δυνάστης του.

 

You must be logged in to post a comment Login

Leave a Reply