Fwd: Breaking: 4(+) Ανώτερα Στελέχη Ασφαλείας των OpenAI, xAI και Anthropic παραιτούνται επικαλούμενοι τους κινδύνους της ΤΝ και αδιαφορια των εταιριών τους

0 views
Skip to first unread message

Φαναριώτης Δημήτρης

unread,
Feb 12, 2026, 3:58:52 PMFeb 12
to 7b...@googlegroups.com
 Οι ειδικοί στην τεχνητή νοημοσύνη κρούουν τον κώδωνα του κινδύνου
Οι ειδικοί έρευνας ασφάλειας των μοντέλων της OpenAI, xAI και Anthropic παραιτούνται ο ένας μετά τον άλλο, λέγοντας:
"Τους ενδιαφέρει (τους ιδιοκτήτες) μόνο να τελειοποιούν και να πουλάνε τα μοντέλα, ενώ ήδη τα μοντέλα είναι ανεξέλεγκτα και ήδη εγκυμονούν σοβαρούς κινδύνους για την ασφάλειά μας"
Δείτε γιατί: 
AI CEOS RESIGHN.jpg
Μετάφραση:

Κορυφαίοι ειδικοί στην Τεχνητή Νοημοσύνη στις εταιρείες OpenAI, Anthropic και άλλες εταιρείες προειδοποιούν για τους αυξανόμενους κινδύνους της τεχνολογίας τους, με ορισμένους να παραιτούνται σε ένδειξη διαμαρτυρίας ή να εκφράζουν δημόσια σοβαρές ανησυχίες.

Γιατί έχει σημασία:  Κορυφαία μοντέλα τεχνητής νοημοσύνης, συμπεριλαμβανομένων των Claude της Anthropic και ChatGPT της OpenAI, γίνονται πολύ καλύτερα, πολύ πιο γρήγορα, και μάλιστα κατασκευάζουν τα ίδια νέα προϊόντα.

  • Αυτό ενθουσιάζει τους αισιόδοξους για την Τεχνητή Νοημοσύνη — και τρομάζει τρομερά αρκετούς ανθρώπους που έχουν αναλάβει την αστυνόμευση της ασφάλειάς τους για την κοινωνία.

Καθοδήγηση των ειδήσεων: Τη Δευτέρα, ένας ερευνητής ανθρωπολογίας ανακοίνωσε την αποχώρησή του, εν μέρει για να γράψει ποίηση για «το μέρος που βρισκόμαστε».

  • Ένας ερευνητής του OpenAI αποχώρησε επίσης αυτή την εβδομάδα επικαλούμενος ηθικούς προβληματισμούς. Ένας άλλος υπάλληλος του OpenAI, ο Hieu Pham, έγραψε στο X : «Επιτέλους νιώθω την υπαρξιακή απειλή που θέτει η Τεχνητή Νοημοσύνη».
  • Ο Jason Calacanis, επενδυτής τεχνολογίας και συμπαρουσιαστής του podcast "All-In", έγραψε στο X : "Δεν έχω ξαναδεί τόσους πολλούς τεχνολόγους να εκφράζουν τις ανησυχίες τους τόσο έντονα, συχνά και με τόση ανησυχία όσο εγώ για την Τεχνητή Νοημοσύνη".
  • Η μεγαλύτερη συζήτηση μεταξύ του κοινού της Τεχνητής Νοημοσύνης την Τετάρτη ήταν η ανάρτηση του επιχειρηματία Ματ Σούμερ, στην οποία συνέκρινε αυτή τη στιγμή με την παραμονή της πανδημίας. Έγινε mega-viral, συγκεντρώνοντας 56 εκατομμύρια προβολές σε 36 ώρες, καθώς παρουσίαζε τους κινδύνους της τεχνητής νοημοσύνης που αναδιαμορφώνουν ριζικά τις δουλειές και τις ζωές μας.

Επαλήθευση της πραγματικότητας: Οι περισσότεροι άνθρωποι σε αυτές τις εταιρείες παραμένουν αισιόδοξοι ότι θα είναι σε θέση να κατευθύνουν την τεχνολογία έξυπνα χωρίς κοινωνική ζημία ή μεγάλη απώλεια θέσεων εργασίας. Αλλά οι ίδιες οι εταιρείες παραδέχονται τον κίνδυνο.

  • Το Anthropic δημοσίευσε μια έκθεση που δείχνει ότι, αν και χαμηλού κινδύνου, η Τεχνητή Νοημοσύνη μπορεί να χρησιμοποιηθεί σε ειδεχθή εγκλήματα, συμπεριλαμβανομένης της δημιουργίας χημικών όπλων . Αυτή η λεγόμενη « έκθεση δολιοφθοράς » εξέτασε τους κινδύνους της Τεχνητής Νοημοσύνης χωρίς ανθρώπινη παρέμβαση, αποκλειστικά από μόνη της.
  • Ταυτόχρονα, η OpenAI διέλυσε την ομάδα ευθυγράμμισης αποστολών της, η οποία δημιουργήθηκε για να διασφαλίσει ότι η AGI (τεχνητή γενική νοημοσύνη) θα ωφελήσει ολόκληρη την ανθρωπότητα, ανέφερε την Τετάρτη ο συγγραφέας του Platformer, Casey Newton .

Ενδιάμεσα στις γραμμές: Ενώ ο επιχειρηματικός και τεχνολογικός κόσμος έχει εμμονή με αυτό το θέμα, αυτό δύσκολα καταγράφεται στον Λευκό Οίκο και το Κογκρέσο.

Επίπεδο απειλής: Ο τελευταίος γύρος προειδοποιήσεων έρχεται μετά από ενδείξεις ότι αυτά τα νέα μοντέλα μπορούν να κατασκευάσουν μόνα τους πολύπλοκα προϊόντα και στη συνέχεια να βελτιώσουν την εργασία τους χωρίς ανθρώπινη παρέμβαση.

  • Το τελευταίο μοντέλο του OpenAI βοήθησε στην αυτοεκπαίδευση. Το viral εργαλείο Cowork του Anthropic κατασκευάστηκε επίσης μόνο του.
  • Αυτές οι αποκαλύψεις — εκτός από τις ενδείξεις ότι η Τεχνητή Νοημοσύνη απειλεί μεγάλες κατηγορίες της οικονομίας, συμπεριλαμβανομένου του λογισμικού ή των νομικών υπηρεσιών — προκάλεσαν πολλή ενδοσκόπηση σε πραγματικό χρόνο.

Συμπέρασμα: Η ανατροπή της Τεχνητής Νοημοσύνης είναι εδώ και ο αντίκτυπός της συμβαίνει ταχύτερα και ευρύτερα από ό,τι πολλοί ανέμεναν


Δείτε επίσης: One exit after another

TL;DR: Ανώτεροι υπάλληλοι στις OpenAI, xAI και Anthropic οδεύουν όλοι προς τις αποχωρήσεις αυτή την εβδομάδα — κάποιοι με δραματικούς αποχαιρετισμούς στα μέσα κοινωνικής δικτύωσης, ένας με ένα άρθρο γνώμης στους New York Times και ένας με μια επιστολή ασφαλείας με μια ευγενή επιστολή δύο σελίδων που προειδοποιεί ότι « ο κόσμος βρίσκεται σε κίνδυνο ». Οι ακριβείς λόγοι τους ποικίλλουν, αλλά το συμπέρασμα είναι το εξής: Βασικοί άνθρωποι που έχουν αναλάβει την ασφάλεια της Τεχνητής Νοημοσύνης αποχωρούν για ηθικούς λόγους, καθώς οι πρώην εργοδότες τους επιταχύνουν τις βελτιώσεις και τις ενημερώσεις προϊόντων.

Τι συνέβη: Την περασμένη εβδομάδα, τουλάχιστον τέσσερις κορυφαίες προσωπικότητες στις OpenAI, Anthropic και xAI «παραιτήθηκαν δυναμικά».

Τη Δευτέρα , ο Mrinank Sharma, ανώτερος ερευνητής ασφάλειας του Anthropic, παραιτήθηκε με μια επιστολή δύο σελίδων -πλήρης με υποσημειώσεις- που δημοσιεύτηκε στο X, επικαλούμενος ανησυχίες για «αλληλένδετες κρίσεις» πέρα από την Τεχνητή Νοημοσύνη και ότι ένιωθε συνεχώς «πιέσεις να αφήσει στην άκρη ό,τι έχει μεγαλύτερη σημασία». Ο Αϊνστάιν εξέφρασε μεταμέλεια για τον ρόλο που έπαιξε στη δημιουργία της ατομικής βόμβας, λέγοντας ότι αν το ήξερε, «θα είχε γίνει ωρολογοποιός». Ο Sharma, από την πλευρά του, σχεδιάζει να γίνει «αόρατος» και να σπουδάσει ποίηση.

Στη συνέχεια, η ερευνήτρια επιστήμονας του OpenAI, Zoë Hitzig, δημοσίευσε ένα άρθρο γνώμης στους NYT την Τετάρτη ανακοινώνοντας την παραίτησή της. Ο λόγος; Η νέα κυκλοφορία διαφημίσεων του ChatGPT. Ο Hitzig συνέκρινε την πορεία του OpenAI με αυτή του Facebook, υποστηρίζοντας ότι οι χρήστες έχουν εμπιστευτεί στο chatbot ένα πρωτοφανές «αρχείο ανθρώπινης ειλικρίνειας». Και ενώ το OpenAI λέει ότι οι διαφημίσεις θα φέρουν ετικέτα και δεν θα επηρεάσουν τις απαντήσεις, ο Hitzig ανησυχεί ότι αυτές οι δεσμεύσεις σύντομα θα ακυρωθούν επειδή «η εταιρεία κατασκευάζει μια οικονομική μηχανή που δημιουργεί ισχυρά κίνητρα για να παρακάμψει τους δικούς της κανόνες».

Τη Δευτέρα και την Τρίτη , δύο συνιδρυτές της xAI αποχώρησαν επίσης από την εταιρεία, πράγμα που σημαίνει ότι τα μισά από τα ιδρυτικά μέλη της xAI έχουν πλέον αποχωρήσει. Οι Tony Wu και Jimmy Ba δημοσίευσαν φιλικούς αποχαιρετισμούς στο X, με τον Ba να λέει ότι το 2026 θα είναι «η πιο πολυάσχολη (και πιο σημαντική) χρονιά για το μέλλον του είδους μας». Ο Musk, ωστόσο, έκανε να φανεί ότι ήταν καθαρά δική του επιλογή να τους διώξει .

Ο κύκλος εργασιών στις μεγάλες εταιρείες τεχνολογίας δεν είναι ασυνήθιστος, αλλά όλες αυτές οι αποχωρήσεις υψηλού προφίλ σε σύντομο χρονικό διάστημα υποδεικνύουν ένα μεγαλύτερο ηθικό πρόβλημα. Οι εργαζόμενοι σε εταιρείες τεχνητής νοημοσύνης αγωνίζονται καθημερινά για το πώς να δώσουν προτεραιότητα σε ζητήματα όπως η ασφάλεια των χρηστών και να τα εξισορροπήσουν με τις εξελίξεις στην τεχνολογία και την ανάγκη των εργοδοτών τους για περισσότερα έσοδα.

Σταδιακά, και μετά ξαφνικά: Οι αποχωρήσεις και οι δυσοίωνες επιστολές που δημοσιεύονται μαζί τους, έρχονται καθώς αυξάνεται η ανησυχία του κοινού ότι η ασφάλεια τίθεται σε δεύτερη μοίρα λόγω των νέων χαρακτηριστικών προϊόντων και των διαφημιστικών κόλπων των εταιρειών τεχνητής νοημοσύνης. Μόνο η OpenAI έχει δημοσιεύσει πάνω από 20 ενημερώσεις μοντέλων τον τελευταίο χρόνο, καθώς και αγορές, μια αγορά εφαρμογών και τώρα διαφημίσεις. Η Anthropic κυκλοφόρησε πέντε μεγάλα μοντέλα στο ίδιο χρονικό διάστημα, καθώς και ένα εργαλείο κωδικοποίησης πρακτόρων και έναν πράκτορα τεχνητής νοημοσύνης για καθημερινές εργασίες.

AI CEOS RESIGHN 2.jpg


Reply all
Reply to author
Forward
0 new messages