breaking newsNEA TAΞΗ ΠΡΑΓΜΑΤΩΝΔιεθνή

Φανταστείτε έναν στρατό από ρομπότ δολοφόνους ικανούς να σας εντοπίσουν και να σας σκοτώσουν

Εταιρείες τεχνολογίας θα δαπανήσουν εκατομμύρια για την ανάπτυξή τους, η ευελιξία και η φονικότητα των οποίων θα αφήσουν τους ανθρώπους εντελώς ανυπεράσπιστους

 

Φανταστείτε έναν στρατό από ρομπότ δολοφόνους ικανούς να σας εντοπίσουν και να σας σκοτώσουν -όλα αυτά χωρίς καμία επίβλεψη από ανθρώπους που θα έπρεπε να τα χειρίζονται.

Αυτό μπορεί να ακούγεται σαν σενάριο επιστημονικής φαντασίας, αλλά ένας κορυφαίος ειδικός στην επιστήμη των υπολογιστών ανησυχεί ότι τέτοια «φονικά αυτόνομα οπλικά συστήματα» μπορεί σύντομα να γίνουν επιστημονικά δεδομένα της καθημερινότητας.

«Οι τεχνολογίες έχουν φτάσει σε ένα σημείο στο οποίο η ανάπτυξη τέτοιων συστημάτων είναι – πρακτικά αν όχι νομικά – εφικτή μέσα σε χρόνια, όχι δεκαετίες», έγραψε ο Δρ Stuart Russell, καθηγητής επιστήμης υπολογιστών και μηχανικής στο Πανεπιστήμιο της Καλιφόρνια στο Μπέρκλεϋ.

«Παρά τα όρια που επιβάλλονται από τη φυσική, μπορεί κανείς να περιμένει ότι εταιρείες τεχνολογίας θα δαπανήσουν εκατομμύρια για την ανάπτυξή τους, η ευελιξία και η φονικότητα των οποίων θα αφήσουν τους ανθρώπους εντελώς ανυπεράσπιστους. Αυτό δεν είναι ένα επιθυμητό μέλλον.»

Αυτό το ρομπότ “Raptor” που μοιάζει με Βελοσιράπτορα, αναπτύχθηκε στην Κορέα, μπορεί να τρέξει πιο γρήγορα από τον Usain Bolt.

Αυτοί οι «νανοτετράτροχοι» του Πανεπιστημίου της Πενσυλβάνια μπορούν να συμμετάσχουν σε πολύπλοκα κοινωνικά κινήματα, όπως το σμήνος και ο σχηματισμός προτύπων.

Ο Russell δεν καταδικάζει όλες τις εκδηλώσεις τεχνητά ευφυών ρομπότ. Απλώς δεν πιστεύει ότι η απόφαση να σκοτώσει πρέπει να είναι αφεθεί αποκλειστικά στα χέρια μιας μηχανής.

«Θα πρέπει να έχουμε μια συνθήκη που θα απαγορεύει την ανάπτυξη των θανατηφόρων αυτόνομων οπλικών συστημάτων», είπε στη Huffington Post σε ένα email. Καλεί τις επαγγελματικές ενώσεις να υιοθετήσουν επίσημες πολιτικές για την αντιμετώπιση των προόδων που θα μπορούσαν να οδηγήσουν στη δημιουργία επικίνδυνων ρομπότ.

«Θα πρέπει να κατανοήσουμε τους τρόπους με τους οποίους η γνώση μπορεί να χρησιμοποιηθεί για το κακό και να κάνουμε ό,τι καλύτερο μπορούμε για να το αποτρέψουμε», είπε στο email. «Αν και δεν συμβαίνει επί του παρόντος, σύντομα θα γίνει κατανοητό ότι η «ασφαλής και ωφέλιμη» A.I. είναι απλώς ένα εγγενές μέρος του πεδίου, όπως… το «το δεν θα πέσει» είναι ένα εγγενές μέρος του σχεδιασμού μιας γέφυρας. Πρέπει να υπάρχουν οι κατάλληλες εγγυήσεις και προυποθέσεις».

Και ο Russell δεν είναι ο μόνος που ζητά τέτοια εποπτεία. Τον περασμένο Απρίλιο, η Human Rights Watch δημοσίευσε μια έκθεση που ενθαρρύνει τους υπεύθυνους χάραξης πολιτικής να απαγορεύσουν την ανάπτυξη και την παραγωγή αυτόνομων όπλων.

«Ένα πλήρως αυτόνομο όπλο θα μπορούσε να διαπράξει πράξεις που θα έφταναν στο επίπεδο των εγκλημάτων πολέμου εάν κάποιος τα άφηνε ελεύθερα, αλλά τα θύματα δεν θα έβλεπαν κανέναν να τιμωρείται για αυτά τα εγκλήματα», δήλωσε η Δρ. Bonnie Docherty, ανώτερη ερευνήτρια τμήματος όπλων στην οργάνωση και επικεφαλής συγγραφέας της έκθεσης, σε γραπτή της δήλωση. «Το να αποκαλούμε τέτοιες πράξεις «ατύχημα» ή «πρόβλημα» θα έκανε ασήμαντη τη θανατηφόρα βλάβη που θα μπορούσαν να προκαλέσουν».

primenews
Back to top button