Aggiornato al

Giornalismo, se i pregiudizi entrano negli algoritmi


di Guido Besana Qualche anno fa arrivò il software che scriveva le brevi sulle partite dei campionati minori di baseball e altri sport. Con l’introduzione dell’intelligenza artificiale molte cose stanno cambiando e il nostro settore non è immune. Uno dei problemi più rilevanti è insito nelle basi stesse dell’intelligenza artificiale, cioè nel suo sistema di apprendimento dalle attività umane. Due delle storie più raccontate vengono ovviamente dagli Stati Uniti; un sistema di I. A. utilizzato nel sistema giudiziario aveva imparato dalle giurie umane a essere razzista, uno usato nel campo assicurativo aveva imparato dagli agenti umani a alzare i premi richiesti nei quartieri delle minoranze. Sarà interessante vedere cosa faranno Julia Angwin e Jeff Larson che hanno lasciato ProPublica per fondare un nuovo giornale, in realtà una newsroom, in cui giornalisti e programmatori lavoreranno insieme sui temi di tecnologia e algoritmi. Ne parla il Nieman lab. Questo invece è un articolo di Futurism su Knowhere, una testata che utilizza l’intelligenza artificiale per produrre articoli imparziali, di cui poi pubblica anche le versioni orientate, destra e sinistra o favorevole e contrario. https://futurism.com/ai-journalist-media-bias-news-knowhere/ È interessante darci uno sguardo, è https://knowherenews.com/ . Poi, come nota Kristin Houser, chi cerca informazioni non deformate dai pregiudizi forse non ne ha bisogno, e chi ne avrebbe bisogno sta benissimo nella sua bolla di assoluta parzialità. E anche qui si ripropone il problema di fondo: come fanno i giornalisti umani a dare un esempio di assoluta imparzialità al sistema di intelligenza artificiale che deve imparare da loro?
       
    Il sito Archivio notizie

logo nuova informazione