Η Τεχνητή Νοημοσύνη (AI) παράγει σχεδόν το μισό περιεχόμενο του διαδικτύου, σύμφωνα με νέα έκθεση της SEO Graphite που δημοσιεύει το Axios, προκαλώντας ανησυχίες για την ποιότητα και την αξιοπιστία της πληροφορίας. Οι ερευνητές προειδοποιούν ότι εάν η AI «πλημμυρίσει» το Διαδίκτυο με δικά της κείμενα, μπορεί τελικά να τρέφεται με το ίδιο περιεχόμενό της, οδηγώντας σε αλλοίωση και πιθανή κατάρρευση του πληροφοριακού οικοσυστήματος.
Η έκθεση της Graphite αποκαλύπτει ότι περίπου το 50% των άρθρων που δημοσιεύονται στο διαδίκτυο σήμερα είναι γραμμένα εν μέρει ή εξ ολοκλήρου από Τεχνητή Νοημοσύνη.
Η αύξηση είναι εκρηκτική από την εμφάνιση του ChatGPT στα τέλη του 2022, καθώς η παραγωγή περιεχομένου από μηχανές σχεδόν ισοφαρίζει τον ανθρώπινο όγκο κειμένων.
Η ανάλυση κάλυψε πάνω από 300 δισεκατομμύρια ιστοσελίδες, εξαιρώντας τα paywalled sites, όπου το περιεχόμενο παραμένει αμιγώς ανθρώπινης δημιουργίας.
Οι αριθμοί μιλούν
Παρά την έκρηξη, η ανθρώπινη γραφή παραμένει κυρίαρχη στα πιο αξιόπιστα μέσα:
-
Το 86% των άρθρων που εμφανίζονται στα αποτελέσματα της Google είναι ανθρώπινα,
-
ενώ μόλις 14% είναι παραγόμενα από AI.
Επιπλέον, το 82% των άρθρων που επικαλούνται τα ChatGPT και Perplexity προέρχονται επίσης από ανθρώπινους συντάκτες.
Οι ερευνητές σημειώνουν ότι τα AI-generated άρθρα κατατάσσονται χαμηλότερα στις μηχανές αναζήτησης, γεγονός που δείχνει ότι οι αλγόριθμοι εξακολουθούν να προτιμούν το ανθρώπινο περιεχόμενο.
Ο κίνδυνος της «αυτοτροφοδότησης»
Οι ειδικοί προειδοποιούν πως η αυξανόμενη παραγωγή περιεχομένου από AI μπορεί να οδηγήσει σε φαύλο κύκλο, καθώς τα μεγάλα γλωσσικά μοντέλα (LLMs) θα αρχίσουν να εκπαιδεύονται στα ίδια τους τα δεδομένα, με αποτέλεσμα τη σταδιακή αλλοίωση της ποιότητας.
Η Europol είχε ήδη προβλέψει από το 2022 ότι μέχρι το 2026, το 90% του online περιεχομένου θα προέρχεται από AI — εκτίμηση που, όπως δείχνουν τα νέα δεδομένα, πλησιάζει ταχύτατα στην πραγματικότητα.
Τα ευρήματα της έρευνας
Η Graphite ανέλυσε 65.000 URLs που δημοσιεύτηκαν από το 2020 έως το 2025, με το εργαλείο Surfer, το οποίο εντόπιζε AI-δημιουργημένα κείμενα.
Όσα άρθρα είχαν λιγότερο από 50% ανθρώπινη συμμετοχή ταξινομήθηκαν ως AI-generated.
Το ποσοστό των AI-άρθρων εκτοξεύτηκε μετά το 2023, ξεπερνώντας προσωρινά τα ανθρώπινα τον Νοέμβριο του 2024, πριν σταθεροποιηθεί ξανά.
Η ακρίβεια του Surfer ελέγχθηκε με δείγματα, καταγράφοντας μόλις 4,2% ψευδώς θετικά και 0,6% ψευδώς αρνητικά αποτελέσματα.
Η δυσκολία στον ορισμό του «AI-generated»
Η διάκριση ανάμεσα σε ανθρώπινη και τεχνητή συγγραφή γίνεται ολοένα και πιο δύσκολη, καθώς πολλοί συντάκτες συνεργάζονται πλέον με AI εργαλεία.
Όπως επισημαίνει ο καθηγητής Πληροφορικής του UCLA, Stefano Soatto, εκπρόσωπος της Google:
«Σήμερα υπάρχει περισσότερο μια συμβίωση, παρά μια αντίθεση ανάμεσα σε ανθρώπους και AI».
Επιπλέον, η Common Crawl, η βάση δεδομένων που χρησιμοποιήθηκε, δεν περιλαμβάνει συνδρομητικά sites, κάτι που σημαίνει ότι η ανθρώπινη συγγραφή ίσως υποεκτιμάται στα αποτελέσματα.
Οι αναγνώστες εμπιστεύονται ακόμα τον άνθρωπο
Παρότι τα AI-generated summaries κερδίζουν έδαφος, η εμπιστοσύνη των χρηστών παραμένει χαμηλή.
Σύμφωνα με έρευνα του Pew Research Center, μόλις 20% των χρηστών θεωρεί τις περιλήψεις της AI «πολύ χρήσιμες», και μόνο 6% τις εμπιστεύεται «απόλυτα».
Η Τεχνητή Νοημοσύνη μπορεί πλέον να παράγει το μισό περιεχόμενο του διαδικτύου, ωστόσο, οι αναγνώστες, οι αλγόριθμοι και οι μηχανές αναζήτησης δείχνουν πως το ανθρώπινο άγγιγμα παραμένει αναντικατάστατο.