Giornalismo, se i pregiudizi entrano negli algoritmi

di Guido Besana
Qualche anno fa arrivò il software che scriveva le brevi sulle partite dei campionati minori di baseball e altri sport. Con l’introduzione dell’intelligenza artificiale molte cose stanno cambiando e il nostro settore non è immune. Uno dei problemi più rilevanti è insito nelle basi stesse dell’intelligenza artificiale, cioè nel suo sistema di apprendimento dalle attività umane. Due delle storie più raccontate vengono ovviamente dagli Stati Uniti; un sistema di I. A. utilizzato nel sistema giudiziario aveva imparato dalle giurie umane a essere razzista,

uno usato nel campo assicurativo aveva imparato dagli agenti umani a alzare i premi richiesti nei quartieri delle minoranze. Sarà interessante vedere cosa faranno Julia Angwin e Jeff Larson che hanno lasciato ProPublica per fondare un nuovo giornale, in realtà una newsroom, in cui giornalisti e programmatori lavoreranno insieme sui temi di tecnologia e algoritmi. Ne parla il Nieman lab.
Questo invece è un articolo di Futurism su Knowhere, una testata che utilizza l’intelligenza artificiale per produrre articoli imparziali, di cui poi pubblica anche le versioni orientate, destra e sinistra o favorevole e contrario. https://futurism.com/ai-journalist-media-bias-news-knowhere/ È interessante darci uno sguardo, è https://knowherenews.com/ .
Poi, come nota Kristin Houser, chi cerca informazioni non deformate dai pregiudizi forse non ne ha bisogno, e chi ne avrebbe bisogno sta benissimo nella sua bolla di assoluta parzialità.
E anche qui si ripropone il problema di fondo: come fanno i giornalisti umani a dare un esempio di assoluta imparzialità al sistema di intelligenza artificiale che deve imparare da loro?

Questo inserimento è stato pubblicato in Diritti e Doveri, Professione, Senza categoria. Metti un segnalibro su permalink. Sia i commenti che i trackback sono chiusi.
  • L’editoriale

  • News


    Visualizza tutte le news