Αδύνατος ο έλεγχος της τεχνητής νοημοσύνης, προειδοποιούν οι επιστήμονες
Photo Credits: Shutterstock

Αδύνατος ο έλεγχος της τεχνητής νοημοσύνης, προειδοποιούν οι επιστήμονες

[rt_reading_time postfix="minutes" postfix_singular="minute"] read
Share it:

Οι πιο πρόσφατες εξελίξεις στον τομέα της τεχνητής νοημοσύνης έχουν δημιουργήσει πολλά ηθικά διλήμματα. Ισως ένα από τα σημαντικότερα είναι το εάν οι άνθρωποι θα είναι σε θέση να ελέγξουν τις αυτόνομες μηχανές.

Γίνεται ολοένα και πιο κοινό να βλέπουμε ρομπότ που είναι υπεύθυνα για οικιακές εργασίες ή αυτόνομα οχήματα, να λειτουργούν μέσω τέτοιων τεχνολογιών. Ενώ η τεχνητή νοημοσύνη μπορεί – και το κάνει ήδη – να διευκολύνει σημαντικά τις ζωές των ανθρώπων, θα μπορούσε επίσης και να τις περιπλέξει.

Μπορεί η ιδέα της «εξέγερσης» της τεχνητής νοημοσύνης να μοιάζει βγαλμένη από σενάριο κάποιας ταινίας επιστημονικής φαντασίας, αλλά μια νέα έρευνα θεωρεί ότι κάτι τέτοιο είναι πιθανό – και δεν θα μπορούσαμε να το σταματήσουμε.

Μια διεθνής ομάδα ερευνητών προειδοποίησε για τους πιθανούς κινδύνους από τη δημιουργία υπερβολικά ισχυρού και αυτόνομου λογισμικού. Χρησιμοποιώντας μια σειρά θεωρητικών υπολογισμών, οι επιστήμονες διερεύνησαν τον τρόπο με τον οποίο θα μπορούσε να επιτευχθεί ο έλεγχος της τεχνητής νοημοσύνης.

Αδύνατος ο έλεγχος της τεχνητής νοημοσύνης
Μπορεί η ιδέα της «εξέγερσης» της τεχνητής νοημοσύνης να μοιάζει με σενάριο επιστημονικής φαντασίας, όμως οι επιστήμονες θεωρούν ότι κάτι τέτοιο είναι πιθανό. © Shutterstock

Το συμπέρασμα είναι ότι κάτι τέτοιο θα ήταν αδύνατο, σύμφωνα με όσα υποστηρίζει η έρευνα που δημοσιεύθηκε στο Journal of Artificial Intelligence Research.

«Υπάρχουν ήδη μηχανήματα που εκτελούν σημαντικά καθήκοντα αυτόνομα, χωρίς οι προγραμματιστές να αντιλαμβάνονται πλήρως πώς τα κατάφεραν […], πρόκειται για μια κατάσταση που θα μπορούσε να γίνει ανεξέλεγκτη και επικίνδυνη για την ανθρωπότητα», δήλωσε ο Μάνουελ Σέμπριαν, συν-συγγραφέας της μελέτης.

Οι επιστήμονες πειραματίστηκαν με δύο μεθόδους ελέγχου της τεχνητής νοημοσύνης. Ο ένας αφορούσε την απομόνωση της από το διαδίκτυο και άλλες συσκευές, περιορίζοντας την επαφή της με τον έξω κόσμο. Το πρόβλημα είναι ότι αυτό θα μείωνε σημαντικά την ικανότητα της να εκτελεί τις λειτουργίες για τις οποίες δημιουργήθηκε.

Ο άλλος ήταν ο σχεδιασμός ενός «θεωρητικού αλγόριθμου περιορισμού» για να διασφαλιστεί ότι μια συσκευή υπερονοημοσύνης «δεν μπορεί σε καμία περίπτωση να βλάψει τους ανθρώπους». Ωστόσο, μια ανάλυση του τρέχοντος υπολογιστικού παραδείγματος έδειξε ότι δεν μπορεί να δημιουργηθεί ένας τέτοιος αλγόριθμος.

«Αν αναλύσουμε το πρόβλημα με βασικούς κανόνες της θεωρητικής πληροφορικής, αποδεικνύεται ότι ένας αλγόριθμος που έδωσε την εντολή σε κάποια συσκευή τεχνητής νοημοσύνης να μην καταστρέψει τον κόσμο θα μπορούσε να σταματήσει ακούσια τις ίδιες του τις λειτουργίες», εξηγεί ο Ιγιάντ Ραχβάν, εκ των συμμετεχόντων στη μελέτη.

«Εάν συνέβαινε αυτό, δεν θα γνωρίζαμε εάν ο αλγόριθμος περιορισμού θα συνέχιζε να αναλύει την απειλή ή εάν θα σταματούσε να περιορίζει την επιβλαβή ΑΙ. Στην πράξη αυτό καθιστά τον αλγόριθμο περιορισμού άχρηστο», προσθέτει.

Με βάση αυτούς τους υπολογισμού, το πρόβλημα είναι ότι κανένας αλγόριθμος δεν μπορεί να καθορίσει εάν μια τεχνολογία υπερ-νοημοσύνης θα μπορούσε να βλάψει τον κόσμο.

Οι ερευνητές επισημαίνουν επίσης ότι η ανθρωπότητα μπορεί να μην γνωρίζει καν πότε θα έχουν «φτάσει» τέτοιου είδους τεχνολογίες, επειδή ο προσδιορισμός της ευφυΐας μιας μηχανής ως ανώτερη από αυτή τη ανθρώπου αντιμετωπίζει τα ίδια προβλήματα με τον περιορισμό της.

με πληροφορίες από Entrepreneur

Renova Deco
Smart Booking Title
Smart Booking

Explore More