Buongiorno!
Cercando di rispondere alla domanda di un collega docente di uno dei corsi scuola futura mi è caduto l'occhio sul seguente articolo
https://arxiv.org/abs/2207.14382 (cito dall'abstract):
"This high variance is exhibited in three interviews with LLMs reaching
wildly different conclusions. A new possibility was uncovered that could
explain this divergence. What appears to be intelligence in LLMs may in
fact be a mirror that reflects the intelligence of the interviewer, a
remarkable twist that could be considered a reverse Turing test. If so,
then by studying interviews, we may be learning more about the
intelligence and beliefs of the interviewer than the intelligence of the
LLMs."
Se questo fosse provato renderebbe lo scenario disegnato dalla Whittaker in questa intervista:
ancora più cupo: non solo l'Ai potrebbe essere usata "così com'è" a scopi di sorveglianza, ma potrebbe aumentare la qualità effettiva dei dati di sorveglianza restituendo dei profili degli utenti assai più definiti di quelli a cui ci hanno abituato i social media. A tutto vantaggio del sorvegliante.
Direi che si tratta di un'ottima ragione per sconsigliare l'uso di chatbot che richiedano l'identificazione dell'utente nella scuola pubblica, e per consigliare a chi decida di utilizzarli di farlo almeno attraverso un TOR browser.
Stefano