breaking newsNEA TAΞΗ ΠΡΑΓΜΑΤΩΝΔιεθνή

Έντονη η ανησυχία της Κομισιόν για την τεχνητή νοημοσύνη

 

Η χρήση τεχνητής νοημοσύνης απαιτεί συνεχή παρακολούθηση, αξιολόγηση κινδύνου διαρροής της τεχνολογίας και προστασία από κράτη που χαρακτηρίζονται αντίπαλα, σύμφωνα με την Κομισιόν, που κατατάσσει τις εφαρμογές του Α.Ι. στους κρίσιμους τεχνολογικούς τομείς.

Οι Βρυξέλλες ανησυχούν για τους πιθανούς κινδύνους που επισύρουν οι τεχνολογίες γύρω από τους προηγμένους ημιαγωγούς, την τεχνητή νοημοσύνη, τις κβαντικές τεχνολογίες και τις βιοτεχνολογίες.

Στη σχετική ευρωπαϊκή σύσταση περιλαμβάνεται μάλιστα κατάλογος δέκα τεχνολογικών τομέων, εκ των οποίων οι τέσσερις θεωρούνται πολύ πιθανό να παρουσιάσουν τους πιο ευαίσθητους και άμεσους κινδύνους σχετικά με την ασφάλεια της τεχνολογίας και τη διαρροή της. Οι τομείς αυτοί είναι οι εξής:

  • Προηγμένες τεχνολογίες ημιαγωγών (μικροηλεκτρονική, φωτονική, τσιπ υψηλής συχνότητας, εξοπλισμός κατασκευής ημιαγωγών).
  • Τεχνολογίες τεχνητής νοημοσύνης (υπολογισμός υψηλής απόδοσης, υπολογισμός νέφους και αιχμής, ανάλυση δεδομένων, όραση υπολογιστή, επεξεργασία γλώσσας, αναγνώριση αντικειμένων).
  • Κβαντικές τεχνολογίες (κβαντικοί υπολογιστές, κβαντική κρυπτογραφία, κβαντικές επικοινωνίες, κβαντική ανίχνευση και ραντάρ).
  • Βιοτεχνολογίες (τεχνικές γενετικής τροποποίησης, νέες γονιδιωματικές τεχνικές, γονιδιακή κίνηση, συνθετική βιολογία).

Η Επιτροπή συνιστά στα κράτη-μέλη να διεξάγουν αρχικά συλλογικές αξιολογήσεις κινδύνου για αυτούς τους τέσσερις τομείς, έως το τέλος του τρέχοντος έτους, συμπεριλαμβανομένης της διαβούλευσης με τον ιδιωτικό τομέα. Η Κομισιόν θα συνεργαστεί με τα κράτη-μέλη, μέσω των κατάλληλων φόρουμ εμπειρογνωμόνων, για την έναρξη των συλλογικών αξιολογήσεων κινδύνου για τους τέσσερις προαναφερθέντες τεχνολογικούς τομείς.

Υπό το φως αυτού του διαλόγου και της πρώτης εμπειρίας από τις αρχικές συλλογικές αξιολογήσεις κινδύνου, η Κομισιόν μπορεί να παρουσιάσει περαιτέρω πρωτοβουλίες σχετικά με το θέμα αυτό έως την άνοιξη του 2024.

Το αποτέλεσμα της λεπτομερούς συλλογικής αξιολόγησης του επιπέδου και της φύσης των κινδύνων που παρουσιάζονται μπορεί να χρησιμεύσει ως βάση για περαιτέρω συζήτηση σχετικά με την ανάγκη οποιωνδήποτε ακριβών και αναλογικών μέτρων για την προώθηση, τη συνεργασία ή την προστασία σε οποιονδήποτε από αυτούς τους τομείς τεχνολογίας.

Ο Επίτροπος αρμόδιος για την εσωτερική αγορά Τιερί Μπρετόν δήλωσε: «Πρέπει να παρακολουθούμε συνεχώς τις κρίσιμες τεχνολογίες μας, να αξιολογούμε την έκθεσή μας σε κινδύνους και -όπου και όταν χρειάζεται- να λαμβάνουμε μέτρα για τη διατήρηση των στρατηγικών μας συμφερόντων και της ασφάλειάς μας. Η Ευρώπη προσαρμόζεται στις νέες γεωπολιτικές πραγματικότητες, βάζοντας τέλος στην εποχή της αφέλειας και ενεργώντας ως πραγματική γεωπολιτική δύναμη».

Μαζικές απολύσεις λόγω τεχνητής νοημοσύνης;

Η έκθεση της Κομισιόν, έρχεται μόλις λίγους μήνες αφότου ο ΟΟΣΑ εκτίμησε ότι οι ανεπτυγμένες οικονομίες των χωρών-μελών του Οργανισμού βρίσκονται προ των πυλών της «επανάστασης» που θα φέρει η τεχνητή νοημοσύνη μεταβάλλοντας θεμελιωδώς την εργασία, προκαλώντας μαζικές απολύσεις και θέτοντας ηθικά ζητήματα.

Ο Οργανισμός κάλεσε τις πλουσιότερες οικονομίες του κόσμου να προετοιμαστούν για την αναστάτωση που θα επέλθει στις αγορές εργασίας. Παράλληλα, ζήτησε να προετοιμαστούν για τις ανεπιθύμητες παρενέργειες όταν οι κλάδοι των οικονομιών θα υιοθετούν μαζικά τη νέα τεχνολογία και προεξόφλησε πως τον μεγαλύτερο κίνδυνο διατρέχουν οι υψηλής εξειδίκευσης υπάλληλοι γραφείου, που αντιπροσωπεύουν περίπου το 27% της απασχόλησης σε όλες τις χώρες-μέλη του.

Ο διεθνής οργανισμός είναι ο τελευταίος σε μια σειρά οικονομικών οργανισμών που προειδοποιούν για τις παρενέργειες που θα έχουν οι νέες τεχνολογίες, όπως η εφαρμογή ChatGPT, που οι οικονομολόγοι και οι άνθρωποι της τεχνολογίας έχουν χαρακτηρίσει «δημιουργική τεχνητή νοημοσύνη», λόγω της ικανότητάς της να δημιουργεί περιεχόμενο παραπλήσιο με εκείνο των ανθρώπων. Υπογραμμίζει ειδικότερα την ανάγκη να ληφθούν υπόψη τα πιθανά οφέλη, όπως η μεγαλύτερη ικανοποίηση των εργαζομένων από την ποιότητα της εργασίας τους και η αύξηση της παραγωγικότητας, αλλά και να εξετασθούν σοβαρά οι αρνητικές επιπτώσεις, ιδιαιτέρως για τα επαγγέλματα υψηλής εξειδίκευσης.

Το κάλεσμα ερευνητών για μορατόριουμ

Τον περασμένο Μάρτιο δημοσιεύτηκε μια ανοιχτή επιστολή στο Ινστιτούτο Future of Life υπογεγραμμένη από 1.000 ερευνητές και σε όλο τον κόσμο, οι οποίοι εξέφραζαν τις ανησυχίες τους για τη ραγδαία και χωρίς ρυθμιστικό πλαίσιο ανάπτυξη των συστημάτων τεχνητής νοημοσύνης από τις εταιρείες τεχνολογίας.

«Τους τελευταίους μήνες είδαμε εργαστήρια τεχνητής νοημοσύνης να εγκλωβίζονται σε έναν αγώνα εκτός ελέγχου για να αναπτύξουν και να παρουσιάσουν όλο και πιο ισχυρά ψηφιακά μυαλά που κανείς —ακόμα και οι δημιουργοί τους— δεν μπορεί να καταλάβει, να προβλέψει ή να ελέγξει αξιόπιστα», αναφερόταν στην επιστολή.

Μεταξύ όσων υπέγραψαν ήταν οι κορυφαίοι καθηγητές τεχνητής νοημοσύνης Στούαρτ Ράσελ και Γιοσουά Μπένζιο, οι συνιδρυτές των Apple, Pinterest και Skype κ.ά. Το Ινστιτούτο Future of Life, το οποίο δημοσίευσε την επιστολή, έχει τον Μασκ στους μεγαλύτερους χρηματοδότες του και διευθύνεται από τον Μαξ Τέγκμαρκ, καθηγητή του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης και ερευνητή τεχνητής νοημοσύνης.

PrimeNews.

Back to top button