Αλγόριθμοι και εργασιακός αποκλεισμός: Η τεχνητή νοημοσύνη αποφασίζει για το μέλλον σου

Το μέλλον της εργασίας δεν εξαρτάται μόνο από τις δεξιότητες, αλλά πλέον και από τα κριτήρια ενός συστήματος που δεν είναι πάντα ουδέτερο.

Η ταχεία ενσωμάτωση της τεχνητής νοημοσύνης στις διαδικασίες προσλήψεων μετασχηματίζει ριζικά τον τρόπο με τον οποίο οι εργοδότες αξιολογούν υποψηφίους. Αν και υπόσχεται μεγαλύτερη αποτελεσματικότητα και μείωση του ανθρώπινου σφάλματος, η χρήση αλγορίθμων στην επιλογή προσωπικού εγείρει σοβαρά ερωτήματα για τη διαφάνεια, την προκατάληψη και την πρόσβαση σε ευκαιρίες απασχόλησης. Το μέλλον της εργασίας δεν εξαρτάται μόνο από τις δεξιότητες, αλλά πλέον και από τα κριτήρια ενός συστήματος που δεν είναι πάντα ουδέτερο.

Η αλγοριθμική αξιολόγηση στην πράξη

Πλατφόρμες προσλήψεων χρησιμοποιούν αυτοματοποιημένα συστήματα για την ανάλυση βιογραφικών, την καταγραφή δεδομένων από βίντεο-συνεντεύξεις και την πρόβλεψη «πολιτισμικής συμβατότητας» με τον εργοδότη. Τα εργαλεία αυτά αξιολογούν λέξεις-κλειδιά, τόνο φωνής, χειρονομίες και ακόμα και μικροεκφράσεις του προσώπου.

Advertisment

Ωστόσο, η υποτιθέμενη ουδετερότητα των αλγορίθμων είναι επίπλαστη. Αρκετά συστήματα εκπαιδεύονται με βάση δεδομένα προηγούμενων προσλήψεων, τα οποία ενσωματώνουν κοινωνικές προκαταλήψεις. Σε πολλές περιπτώσεις, η τεχνητή νοημοσύνη αναπαράγει στερεότυπα φύλου, ηλικίας ή εθνικότητας, αποκλείοντας υποψηφίους με βάση άσχετους παράγοντες.

Οι κοινωνικές συνέπειες

Η αυτοματοποίηση της επιλογής προσωπικού μπορεί να οδηγήσει σε συστημικό αποκλεισμό κοινωνικών ομάδων. Οι νεότεροι, οι γυναίκες, οι μετανάστες και τα άτομα με μη τυπικά επαγγελματικά προφίλ διατρέχουν μεγαλύτερο κίνδυνο απόρριψης λόγω ασυμβατότητας με τις προδιαγραφές που έχουν ορίσει οι μηχανές.

Η έλλειψη δυνατότητας ανατροφοδότησης καθιστά τη διαδικασία αδιαφανή και μη αναστρέψιμη. Ο υποψήφιος δεν γνωρίζει γιατί απορρίφθηκε ούτε έχει πρόσβαση στο σκεπτικό του συστήματος. Ο αποκλεισμός αποκτά τεχνολογική επίφαση αντικειμενικότητας, ενώ στην ουσία πρόκειται για ψηφιακή αναπαραγωγή κοινωνικών ανισοτήτων.

Advertisment

Νομικά και ηθικά κενά

Η ευρωπαϊκή νομοθεσία αναγνωρίζει τα ζητήματα που προκύπτουν από την αλγοριθμική λήψη αποφάσεων. Ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR) προβλέπει ότι κάθε άτομο έχει το δικαίωμα να μην υπόκειται σε αποκλειστικά αυτοματοποιημένες αποφάσεις. Ωστόσο, οι διατάξεις αυτές παραμένουν γενικές και δεν εφαρμόζονται συστηματικά.

Ο Κανονισμός για την Τεχνητή Νοημοσύνη της Ε.Ε. (AI Act) επιχειρεί να κατηγοριοποιήσει τα συστήματα πρόσληψης ως «υψηλού κινδύνου» και να επιβάλει ελέγχους. Παρόλα αυτά, οι οργανώσεις ανθρωπίνων δικαιωμάτων επισημαίνουν ότι ο κανονισμός επιτρέπει αρκετά «παραθυράκια» στις εταιρείες τεχνολογίας.

Προς μια δημοκρατική τεχνολογία

Η χρήση της τεχνητής νοημοσύνης στις προσλήψεις δεν είναι εκ φύσεως προβληματική. Μπορεί να προσφέρει οφέλη, όπως ταχύτερη επεξεργασία αιτήσεων και μεγαλύτερη συνέπεια. Ωστόσο, χωρίς ρυθμιστικά πλαίσια και διαφάνεια, ενέχει τον κίνδυνο δημιουργίας ενός «ψηφιακού προκαθορισμού» του εργασιακού μέλλοντος.

Απαραίτητα βήματα είναι:

  • η υποχρεωτική λογοδοσία των αλγορίθμων προς τους υποψηφίους
  • η πρόσβαση σε εξηγήσεις για τις αποφάσεις του συστήματος
  • η ανεξάρτητη αξιολόγηση των συστημάτων πρόσληψης ως προς την προκατάληψη και τη δικαιοσύνη
  • η κατοχύρωση του δικαιώματος στην ένσταση και τη χειροκίνητη επανεξέταση

Χωρίς αυτά, η τεχνητή νοημοσύνη καθορίζει μονομερώς ποιος αξίζει να εργαστεί και ποιος όχι.

Η δημοκρατία σε σταυροδρόμι

Η τεχνητή νοημοσύνη στην αγορά εργασίας αντανακλά ένα ευρύτερο ερώτημα. Πώς διασφαλίζεται η ανθρώπινη αξιοπρέπεια σε μια εποχή αυτοματοποίησης; Η απάντηση δεν βρίσκεται στην απόρριψη της τεχνολογίας, αλλά στον κοινωνικό της έλεγχο. Η εργασιακή ισότητα, η πρόσβαση στις ευκαιρίες και η δυνατότητα επανεξέτασης πρέπει να κατοχυρωθούν θεσμικά. Η μετάβαση στην «έξυπνη εργασία» οφείλει να είναι δίκαιη — όχι προνόμιο για λίγους, ούτε παγίδα για τους πολλούς.

Πηγές

  1. Hilke Schellmann, The Algorithm: How AI Decides Who Gets Hired, Monitored, Promoted, and Fired—and Why We Need to Fight Back, εκδόσεις Hachette, 2023.
  2. European Commission, «Artificial Intelligence Act – Regulation Proposal», επίσημο έγγραφο, 2024.
  3. Ifeoma Ajunwa, «The Quantified Worker: Law and Technology in the Modern Workplace», Cambridge University Press, 2023.
  4. AlgorithmWatch, «Automating Society Report 2024», Έκθεση για την Ευρώπη, Ιανουάριος 2025.

Λάβετε καθημερινά τα άρθρα μας στο e-mail σας

Σχετικά θέματα

mass
VOLUNTEER (3)
«Η οικονομική μόρφωση είναι ζωτικής σημασίας για την ελευθερία μας" | Robert Kiyosaki
Η μοναξιά έχει σημασία, και για κάποιους ανθρώπους είναι ο αέρας που αναπνέουν

Πρόσφατα Άρθρα

Εναλλακτική Δράση