Merlo G., Bordone G., “Guida alla programmazione sociale. Teorie, pratiche, contesti”, Carocci faber 2025
BOX n. 125
tutte le voci del sito
In tema si vedano anche le schede
Tre articoli di Giorgio Merlo
L’intelligenza artificiale nella programmazione sociale, Welforum 9 maggio 2025
https://www.welforum.it/lintelligenza-artificiale-nella-programmazione-sociale/
Istruzioni per l’uso delle intelligenze artificiali nella programmazione sociale, Secondo welfare 19 maggio 2025
https://www.secondowelfare.it/governi-locali/istruzioni-per-luso-delle-intelligenze-artificiali-nella-programmazione-sociale/
Intelligenza artificiale e programmazione sociale: tra artigianato e industria, Secondo welfare 1 agosto 2025
https://www.secondowelfare.it/primo-welfare/intelligenza-artificiale-e-programmazione-sociale-tra-artigianato-e-industria/
Agosto 2025
Le AI sono ormai un elemento imprescindibile in molti settori: ricerca, economia, finanza, produzione, ambiente, arte e intrattenimento, selezione del personale e molti altri. Sono anche in continua evoluzione, così come bibliografia ed utilizzo. Per questo la scheda riporta in evidenza la data di pubblicazione. Scheda che sarà nostra cura aggiornare con una certa periodicità.
Omogeneizzazione informativa e bias: fenomeni interconnessi. L'omogeneizzazione appiattisce la diversità informativa, portando a risposte standardizzate e meno originali. Questo processo può essere influenzato o amplificare i bias presenti nei dati di addestramento o nella progettazione degli algoritmi, portando a distorsioni sistematiche e risultati ingiusti verso specifici gruppi o prospettive. Minano la qualità e l'equità delle risposte.
Opacità e black box: fenomeni interconnessi per cui non si comprende il funzionamento interno e come vengono prese le decisioni.
Pensiero "out-of-the-box": capacità umana di risolvere problemi e generare idee in modo creativo e non convenzionale per superare schemi predefiniti e trovare soluzioni originali, sfruttando divergenza, lateralità, serendipità, flessibilità cognitiva, intuizione e capacità emotiva. Assente nelle AI.
Allucinazioni: risposte errate o fuorvianti, come fatti inventati, citazioni inesistenti, risposte illogiche o contenuti non correlati alla richiesta.
La bibliografia è sterminata, di seguito una sintetica rassegna compilata utilizzando diverse AI: Gemini, Copilot, Perplexity pro, ChatGPT, Claude.
Agarwal D., Naaman M., Vashistha A., AI Suggestions Homogenize Writing Toward Western Styles and ….
Studio cross-culturale su come suggerimenti di AI occidentale rendano uniformi i testi di utenti di culture diverse, riducendo differenze stilistiche e culturali.
Agenda Digitale. (s.d.). Bias nell'intelligenza artificiale: analisi e soluzioni.
Analisi dettagliata dei bias sistemici nei modelli IA, con esempi e strategie per mitigarli, incluso il tema della censura algoritmica.
Allan, K. et al. (2025). Stereotypical bias amplification and reversal in an augmented intelligence task.
Studio sperimentale che evidenzia come sistemi AI amplifichino bias esistenti, soprattutto stereotipi di genere, ma che con adeguate misure di sicurezza possano anche ridurre tali bias.
Anderson Review (2025). AI from AI: a Future of Generic and Biased Online Content?.
Analisi del rischio che i contenuti prodotti da IA si omogeneizzino e diventino meno vari, introducendo un “model collapse” in un ciclo di autoproduzione informativa. Suggerisce interventi per rallentare il fenomeno.
Bommasani, R. et al. (2022). Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome Homogenization? arXiv.
Presenta il concetto di algorithmic monoculture e i suoi effetti di omogeneizzazione degli esiti, spesso con impatti negativi per determinati gruppi sociali.
Boyd, d. & Crawford, K. (2011). Data Voids: Where Is the Data in the Data-Driven World?
Discute come l’assenza di dati su gruppi sociali specifici porti a rappresentazioni distorte o incomplete negli algoritmi, causando omogeneizzazione da “vuoto informativo”.
Crawford, K. & Whittaker, M. (2016). Fairness and Transparency in Algorithmic Decision-Making.
Punto di riferimento per i bias algoritmici, evidenzia come i dati storici distorti portino alla perpetuazione delle disuguaglianze attraverso decisioni automatizzate.
Ethica Societas. (s.d.). Intelligenza artificiale e bias: limiti e opportunità.
Esamina l’“algoretica” e strategie per contrastare discriminazioni razziali e di genere nell’uso dell’IA.
European Commission (2019) Ethics Guidelines for Trustworthy AI Definisce i principi etici per uno sviluppo responsabile dell’IA.
Link: https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-aiFerrara, E. (2023). Fairness and Bias in Artificial Intelligence: A Brief Survey of Sources, Impacts, And Mitigation Strategies. arXiv.
Panoramica sulle varie fonti di bias, il loro impatto in modelli generativi e le strategie di mitigazione.
Forbes (2024). AI Homogenization Is Shaping The World.
Articolo che definisce il fenomeno di “AI-formization”: IA che uniforma cultura e arte tramite raccomandazioni personalizzate riducendo la scoperta di nuovi stili.
Giornalismo e Intelligenza Artificiale (2024). Ordine dei Giornalisti.
Corso e webinar sull’uso dell’IA nel giornalismo, evidenziando rischi di omogeneizzazione delle notizie tramite automazione e personalizzazione.
IBM (2024) What Is AI Transparency? Spiega come rendere trasparente il funzionamento dell’IA.
Link: https://www.ibm.com/think/topics/ai-transparencyLicht, K. & Licht, J. (2020) Artificial intelligence, transparency, and public decision-making Analizza come la trasparenza influenzi la legittimità delle decisioni pubbliche.
Link: https://link.springer.com/article/10.1007/s00146-020-00960-wMiddleton, J. (2016). Bias Amplification and Bias Unmasking. Political Analysis.
Mostra come la standardizzazione degli input amplifichi bias nascosti, favorendone la propagazione nei sistemi algoritmici.
Medium (2024). How AI’s Western Bias is Homogenizing Written Content on Social Media and Digital Platforms.
Critica sul bias culturale occidentale nei LLM che porta a contenuti globali omogenei e poco inclusivi.
Olteanu, M. S. (s.d.). Bias in Search Engine Results.
Analizza come i motori di ricerca riflettano e amplifichino bias di genere, razziali e geografici nei risultati.
Pariser, E. (2011). The Filter Bubble: How the New Personalized Web Is Changing What We Read and How We Think.
Esamina la “bolla di filtraggio” creata dagli algoritmi che riduce la varietà di informazioni ricevute, con un effetto di omogeneizzazione cognitiva.
Pasquale, F. (2020) New Laws of Robotics Propone nuove regole per difendere l’expertise umana nell’era dell’IA.
Link: https://www.harvard.com/book/9780674975224PNAS (2025). AI–AI bias: Large language models favor communications generated by large language models.
Studio empirico che dimostra come LLM favoriscano contenuti prodotti da altre AI, aumentando bias e diminuendo diversità informativa.
Stinson, C. (2021). Algorithms are not neutral: Bias in collaborative filtering. arXiv.
Dimostra che anche gli algoritmi introducono bias, con effetti di popolarità e riduzione della diversità nei sistemi di raccomandazione.
UCLA Anderson Review (2025). AI From AI: a Future of Generic and Biased Online Content?.
Approfondimento sui rischi del “death spiral” di omogeneizzazione dei contenuti AI e suggerimenti per mitigazione tramite miglior interazione umano-AI.
AI for Teachers (2024). Homogenisation, Invisibility and beyond: towards an Ethical AI.
Capitolo di libro aperto che tratta gli effetti di omogeneizzazione nei modelli educativi e suggerisce linee guida per IA etica.
Green, B. Escaping the Impossibility of Fairness: From Formal to Substantive Algorithmic Fairness. Philos. Technol. 35, 90 (2022).
https://doi.org/10.1007/s13347-022-00584-6Marr, B. (2024) Will AI Solve The World's Inequality Problem – Or Make It Worse? Esplora il doppio impatto dell’IA sulle disuguaglianze.
https://www.forbes.com/sites/bernardmarr/2024/09/16/will-ai-solve-the-worlds-inequality-problem--or-make-it-worse/MIT Technology Review (2022) AI is making inequality worse Argomenta come l’IA stia accentuando le disuguaglianze.
Link: https://www.technologyreview.com/2022/04/19/1049378/ai-inequality-problem/Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.
Esamina come motori di ricerca e sistemi AI riflettano e perpetuino norme e pregiudizi della cultura dominante.
Zuboff, S. (2019). Il capitalismo della sorveglianza. Luiss University Press.
Critica l’uso dei dati e della sorveglianza digitale come strumenti di dominio politico ed economico.
(Disponibile in librerie specializzate)
Selezione per preminenza della AI Perplexity pro
Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. New York University Press.
Esamina come motori di ricerca e sistemi AI riflettano e perpetuino norme e pregiudizi della cultura dominante.
Zuboff, S. (2019). Il capitalismo della sorveglianza. Luiss University Press.
Critica l’uso dei dati e della sorveglianza digitale come strumenti di dominio politico ed economico.
A.A., How Policy Hidden in an Algorithm is Threatening Families in This Pennsylvania County. 2023
Il Sistema predittivo nei servizi sociali (AFST) della Allegheny County (USA) utilizzato per valutare la probabilità che un bambino venga rimosso dalla propria famiglia entro due anni da una segnalazione di negligenza basandosi su centinaia di variabili, tra cui precedenti interazioni con i servizi sociali, utilizzo di assistenza pubblica e dati demografici, solleva questioni etiche e di equità.
Ahrweiler P., Participatory Artificial Intelligence in Public Social Services. From Bias to Fairness in Assessing Beneficiaries, Springer 2025. Esplora il tema dell'intelligenza artificiale partecipativa (AI partecipativa) applicata ai servizi sociali pubblici, con un focus particolare sulla valutazione sociale basata sull'AI.
https://link.springer.com/book/10.1007/978-3-031-71678-28Ahrweiler P., Gutenberg J., Participatory Artificial Intelligence in Public Social Services, Springer 2015.
Esplora l'uso dell'AI nei servizi sociali pubblici, con un focus sulla giustizia e l'equità nella valutazione dei beneficiari.
Aiù A., Agenda digitale, 2021. Il caso olandese in cui un algoritmo governativo ha accusato migliaia di persone di frodare le autorità fiscali, e in particolare le minoranze etniche, di truffe legate ai sussidi per minori a partire dalla profilazione dei dati compilati nelle dichiarazioni dei redditi registrate nel sistema SyRI (Systeem Risico Indicatie).
https://www.agendadigitale.eu/cultura-digitale/algoritmi-troppo-invasivi-contro-le-frodi-fiscali-la-lezione-delle-dimissioni-del-governo-olandese/D’Andrea M., IA ed Etica: casi di studio su un equilibrio necessario, Diritto.it. 2025
Il Correctional Offender Management Profiling for Alternative Sanctions (COMPAS) utilizzato negli Stati Uniti per valutare il rischio di recidiva dei detenuti per prevedere il rischio di recidiva ed identificare i bisogni dell’individuo in aree quali occupazione, disponibilità di alloggio ed abuso di sostanze stupefacenti, ha dimostrato pregiudizi razziali significativi.
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin's Press.
Mette in luce i pericoli dell'uso indiscriminato dell'automazione nel settore pubblico, invitando a una maggiore consapevolezza dei rischi di discriminazione e disuguaglianza.
Floridi, L., Il paradosso della conoscenza, Carocci Editore, 2019 Riflette sul rischio che l’IA amplifichi visioni dominanti, ignorando la pluralità dei saperi e delle prospettive.
Kleinberg, J., Ludwig, J., Mullainathan, S., & Obermeyer, Z. (2015). Prediction policy problems. American Economic Review, 105(5), 491-95.
Mette in guardia sui rischi dell'utilizzo indiscriminato di strumenti di previsione nelle politiche pubbliche, sottolineando la necessità di un approccio responsabile e consapevole.
Microsoft, "3 ways that AI is driving the evolution of social services in government" 2025 Presenta l'AI come uno strumento per migliorare l'efficienza dei servizi sociali, ad esempio, automatizzando la valutazione delle domande per sussidi o incrociando i dati per identificare persone a rischio (ad esempio, di diventare senzatetto). basandosi sull'analisi di dati di massa, senza che ci sia un coinvolgimento attivo e partecipativo dei destinatari nel processo decisionale.
https://www.microsoft.com/en-us/industry/blog/government/2025/06/23/3-ways-that-ai-is-driving-the-evolution-of-social-services-in-government/Medda R., Crepaz K., Reframing Minority Rights Amid Global Challenges, 2025 Propone un approccio non essenzialista per affrontare i bias algoritmici, promuovendo l’inclusione attraverso una governance etica dell’IA.
https://www.eurac.edu/en/blogs/midas/reframing-minority-rights-amid-global-challenges-the-role-of-ai-and-algorithmic-fPignataro G., La disuguaglianza algoritmica: il lato oscuro dell’efficienza digitale, EticaEconomia 2025. Come gli algoritmi di intelligenza artificiale, pur percepiti come neutrali, possano in realtà amplificare pregiudizi e disparità sociali.
https://eticaeconomia.it/la-disuguaglianza-algoritmica-il-lato-oscuro-dellefficienza-digitale/Riva, P. (2024). Welfare e tecnologia: il lato oscuro della digitalizzazione. Secondo Welfare.
Esplora come la digitalizzazione possa escludere ulteriormente fasce fragili della popolazione nel welfare.
Ruha Benjamin (2019) – Race After Technology Analizza come l’IA possa perpetuare discriminazioni razziali.
https://www.ruhabenjamin.com/race-after-technologyZuboff, S., Il capitalismo della sorveglianza, Luiss University Press, 2019 Denuncia il potere delle piattaforme digitali nel raccogliere e monetizzare dati personali, minacciando libertà e democrazia.
Selezione per preminenza della AI Perplexity pro
Eubanks, V. (2018). Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. St. Martin’s Press.
Analisi delle conseguenze sociali e discriminatorie dell’automazione nei servizi pubblici rivolti ai soggetti fragili.
Riva, P. (2024). Welfare e tecnologia: il lato oscuro della digitalizzazione. Secondo Welfare.
Esplora come la digitalizzazione possa escludere ulteriormente fasce fragili della popolazione nel welfare.
Ferioli, E. A. (2019). Uso dell’AI nei servizi sociali e sanitari in Italia. BioLaw Journal.
Studio sulle sfide legali e regolatorie poste dall’uso dell’intelligenza artificiale in ambito sanitario e sociale italiano.
Backman I., Eliminating Racial Bias in Health Care AI, Yale Medicine, 2023.
https://medicine.yale.edu/news-article/eliminating-racial-bias-in-health-care-ai-expert-panel-offers-guidelines/Mao F., Robodebt, BBC, 2023 Racconta lo scandalo australiano del sistema automatizzato di recupero crediti, che ha causato gravi danni sociali e psicologici.
https://www.bbc.com/news/world-australia-66130105Medda R., Crepaz K., Reframing Minority Rights Amid Global Challenges, 2025 Esamina come l’IA possa contribuire a rafforzare o indebolire i diritti delle minoranze in contesti globali complessi.
https://www.eurac.edu/en/blogs/midas/reframing-minority-rights-amid-global-challenges-the-role-of-ai-and-algorithmic-fMeo M., L’intelligenza artificiale discrimina, eccome, Network360, 2021 Evidenzia come i dati e gli algoritmi possano penalizzare gruppi vulnerabili in base a caratteristiche sociali specifiche.
https://www.agendadigitale.eu/cultura-digitale/lintelligenza-artificiale-discrimina-eccome-ecco-perche-e-come-rimediare/OECD (2023). Using AI to support people with disability in the labour market.
Report che identifica e analizza le soluzioni AI per facilitare l’inclusione lavorativa delle persone con disabilità.
Riva P., Welfare e tecnologia: il lato oscuro della digitalizzazione, Percorsi di secondo welfare, 2024 Evidenzia come la digitalizzazione dei servizi di welfare possa escludere i più fragili, aggravando disuguaglianze e discriminazioni.
https://www.secondowelfare.it/primo-welfare/welfare-e-tecnologia-il-lato-oscuro-della-digitalizzazione/UF CJC, Addressing AI impact on communities of color, Explore University of Florida, 2021 Analizza gli effetti negativi dell’IA sulle comunità marginalizzate e propone modelli di equità culturale e inclusione.
https://explore.research.ufl.edu/addressing-ai-impact-on-communities-of-color.htmlVerdi, G. (2023). L’Impatto dell’Intelligenza Artificiale sull’Inclusione Sociale. Studi di Sociologia, 58(3), 301-315.
Esamina i modi in cui l’IA può promuovere o ostacolare l’inclusione sociale dei gruppi vulnerabili in Italia.
Selezione per preminenza della AI Perplexity pro
Backman, I. (2023). Eliminating Racial Bias in Health Care AI. Yale Medicine.
Presenta linee guida per ridurre i bias razziali nell’uso dell’IA in ambito sanitario.
OECD (2023). Using AI to support people with disability in the labour market.
Report che identifica e analizza le soluzioni AI per facilitare l’inclusione lavorativa delle persone con disabilità.
Verdi, G. (2023). L’Impatto dell’Intelligenza Artificiale sull’Inclusione Sociale. Studi di Sociologia, 58(3), 301-315.
Esamina i modi in cui l’IA può promuovere o ostacolare l’inclusione sociale dei gruppi vulnerabili in Italia.
Lee S., Algorithmic Bias in Smart Cities, NumberAnalytic, 2025 Analizza come i bias algoritmici possano compromettere l’equità nei servizi urbani, suggerendo strategie di mitigazione.
https://www.numberanalytics.com/blog/algorithmic-bias-smart-citiesPellegrin, J, Colnot, L & Delponte, L 2021, Research for REGI Committee – Artificial Intelligence and Urban Development, European Parliament, Policy Department for Structural and Cohesion Policies, Brussels
Un algoritmo addestrato su dati urbani potrebbe proporre interventi che presuppongono la presenza di servizi, infrastrutture digitali o reti di trasporto tipiche delle città, ma assenti o molto diverse nelle aree rurali. Ad esempio, suggerire l’implementazione di servizi digitali avanzati in zone dove la connessione internet è scarsa o assente rischia di escludere parte della popolazione rurale invece di supportarla. Gli algoritmi che suggeriscono interventi per l’inclusione sociale o la pianificazione urbana rischiano di proporre soluzioni non applicabili o addirittura controproducenti in contesti rurali, dove la densità abitativa, le reti di supporto sociale e le priorità della comunità sono differenti.
Riva P., Welfare e tecnologia: il lato oscuro della digitalizzazione, Percorsi di secondo welfare, 2024 Mostra come la digitalizzazione possa accentuare le disuguaglianze territoriali nell’accesso ai servizi.
https://www.secondowelfare.it/primo-welfare/welfare-e-tecnologia-il-lato-oscuro-della-digitalizzazione/Scannavini, M. (2024). AI e welfare in Italia: cosa cambierà? Welforum.
Riflessione sulle criticità dell’uso di AI nel welfare e le possibili disuguaglianze territoriali in Italia.
Selezione per preminenza della AI Perplexity pro
Pellegrin, J., Colnot, L., Delponte, L. (2021). Artificial Intelligence and Urban Development. European Parliament.
Analisi delle disuguaglianze territoriali indotte o amplificate dall’uso di AI nella pianificazione urbana.
Scannavini, M. (2024). AI e welfare in Italia: cosa cambierà? Welforum.
Riflessione sulle criticità dell’uso di AI nel welfare e le possibili disuguaglianze territoriali in Italia.
A.A., Intelligenza speciale (Novembre 2023) Un numero speciale dedicato all’AI e al sociale, con contributi su inclusione lavorativa di persone neurodivergenti, robotica sociale e innovazione sociale. Vita.it L’editoriale di Stefano Zamagni affronta il ruolo del sociale nel cambiare le regole del gioco, non solo tamponare emergenze. Tra gli autori Ivana Pais, Giovanni Biondi, Stefano Granata e altri. Presenti anche approfondimenti su startup e cooperative sociali che utilizzano AI per l’inclusione .
https://www.vita.it/rivista/intelligenza-speciale/Biasi T., L’Intelligenza artificiale nel Terzo settore: così la tecnologia aiuta la progettazione sociale, 2025 Vita
https://www.vita.it/idee/lintelligenza-artificiale-nel-terzo-settore-cosi-la-tecnologia-aiuta-la-progettazione-sociale/Brian Drake, Backwards Thinking on Artificial Intelligence (AI) and Human Trafficking, Grand Strategy 2025
https://www.stimson.org/2025/backwards-thinking- on-artificial-intelligence-ai-and-human-trafficking/Bortolami, A., Caravello, G., Mazzucato, A. (2025). Intelligenza Artificiale Generativa e Progettazione sociale. Welforum. Panoramica sulle opportunità e sfide dell’AI generativa nella progettazione sociale.
https://www.welforum.it/intelligenza-artificiale-generativa-e-progettazione-sociale-opportunita-e-sfide/Capraro, V., et al. (2024) Impact of generative artificial intelligence on socioeconomic inequalities and policy making. Esamina come l’IA generativa possa influenzare le disuguaglianze e le decisioni politiche. Link: https://www.pnas.org/doi/pdf/10.1073/pnas.2414972121
Chui M., Harrysson M., Manyika J., Roberts R., Chung R., Nel P., and Ashley van Heteren, Applying AI for social good, McKinsey 2018. Analizza come l'AI può essere utilizzata per affrontare problemi sociali complessi, con esempi concreti di applicazioni reali.
https://www.mckinsey.com/featured-insights/artificial-intelligence/applying-artificial-intelligence-for-social-goodDataKind, Unlocking Hidden Insights in the Social Sector with Natural Language Processing. 2025 Uno strumento NLP per analizzare migliaia di proposte di successo identificando temi e linguaggio efficaci per aiutare le piccole non profit a replicare best practice.
https://www.datakind.org/2020/06/17/unlocking-hidden-insights-in-the-social-sector-with-natural-language-processingde Luca Picione G.L., Diana P., Ferrari G., Fortini L., Trezza D. (2023), IA Generativa nel welfare: un approccio basato sulla Sociologia Pubblica per una governance consapevole, in «Cambio. Rivista sulle trasformazioni sociali», Vol. 13, n. 26: 117-139. Esplora l'impatto delle AI nel welfare, utilizzando come caso di studio il progetto "Govern-AI" in Italia. Esamina le implicazioni sociali, etiche e politiche dell'IA, sostenendo che la sociologia dovrebbe considerarle un vero e proprio "attore sociale non umano”.
https://oaj.fupress.net/index.php/cambio/article/view/15358Eckert, P. (2020) Top-down AI: The Simpler, Data-Efficient AI Difende l’IA top-down come più efficiente in contesti con pochi dati.
Link: https://www.10eqs.com/knowledge-center/top-down-ai-or-the-simpler-data-efficient-ai/Elevati C., L’IA per il non profit: 3 casi studio su strategie, progettazione e valutazione. 2025 Una panoramica delle opportunità e delle sfide dell'IA nel settore non profit, fornendo esempi pratici e strategie per l'adozione di questa tecnologia.
https://www.linkedin.com/pulse/69-lia-per-il-non-profit-3-casi-studio-su-strategie-e-elevati-cmj0f/?trackingId=HJgQ%2FBNr4i%2FSmZmz0oq6DA%3D%3DErnest &Young, Using data to improve services in the east of London 2019. Il London Borough of Barking and Dagenham (distretto londinese situato nella zona est di Londra) utilizza l’IA per prevedere emergenze abitative, analizzando un vasto insieme di dati socioeconomici e familiari.
https://www.ey.com/content/dam/ey-unified-site/ey-com/en-gl/industries/government-public-sector/documents/ey-icl-barking-and-dagenham-case-study.pdfInternational Rescue Committee e Microsoft 2019 Una collaborazione per gestire crisi legate alla questione dei rifugiati. Analizzando immagini satellitari, dati demografici e schemi migratori storici, un modello IA ha previsto gli spostamenti delle popolazioni sfollate e posizionare in anticipo risorse nelle aree critiche, riducendo i tempi di risposta del 30%.
https://blogs.microsoft.com/on-the-issues/2019/06/19/helping-refugees-and-displaced-persons-by-shifting-the-approach-to-how-we-help-nonprofits/.Marrone, F., Azzurri, T. ,"Applicazioni di Machine Learning per l'Analisi dei Bisogni Sociali: Un Caso Studio Italiano" di in Politiche Sociali, No. 4 (2022), pp. 55-68. L'articolo presenta un caso studio sull'applicazione di tecniche di machine learning per analizzare i dati relativi ai bisogni sociali a livello locale in Italia, con l'obiettivo di migliorare la pianificazione e l'erogazione dei servizi.
McKinsey & Company, AI for social good, Improving lives and protecting the planet, 2024 Analisi di 600 casi d’uso in cui l’Intelligenza artificiale aiuta al raggiungimento degli Obiettivi di Sviluppo Sostenibile delle Nazioni Unite
https://www.mckinsey.com/capabilities/quantumblack/our-insights/ai-for-social-goodMerlo G., Intelligenza artificiale e programmazione sociale: tra artigianato e industria, Secondo Welfare, 2025 Propone una riflessione sul passaggio da pratiche artigianali a modelli industriali nella programmazione sociale mediata da IA.
https://www.secondowelfare.it/primo-welfare/intelligenza-artificiale-e-programmazione-sociale-tra-artigianato-e-industria/Merlo G., Istruzioni per l’uso delle intelligenze artificiali nella programmazione sociale, Secondo Welfare, 2025 Presenta esperienze concrete e strumenti operativi per l’uso dell’IA nella pianificazione dei servizi sociali.
https://www.secondowelfare.it/governi-locali/istruzioni-per-luso-delle-intelligenze-artificiali-nella-programmazione-sociale/OECD, Using AI to support people with disability in the labour market, 2023 Il rapporto identifica 142 soluzioni basate sull’IA, che affrontano disabilità visive, motorie, dell’udito, cognitive, disturbi del linguaggio e aspetti legati alla salute mentale.
https://www.oecd.org/en/publications/using-ai-to-support-people-with-disability-in-the-labour-market_008b32b7-en.htmlSalomé Lannier, Using US Artificial Intelligence to Fight Human Trafficking in Europe, Eurocrim 2023.
https://eucrim.eu/articles/using-us-artificial-intelligence-to-fight-human-trafficking-in-europe/World Economic Forum, AI for Impact: The Role of Artificial Intelligence in Social Innovation 2024. Un white paper del che discute il ruolo dell'AI nell'innovazione sociale, con esempi di casi concreti e benefici.
https://www.weforum.org/publications/ai-for-impact-artificial-intelligence-in-social-innovation/Selezione per preminenza della AI Perplexity pro
Bortolami, A., Caravello, G., Mazzucato, A. (2025). Intelligenza Artificiale Generativa e Progettazione sociale. Welforum.
Panoramica sulle opportunità e sfide dell’AI generativa nella progettazione sociale.
Chui, M., Manyika, J., et al. (2018). Applying AI for social good. McKinsey & Company.
Studio di circa 600 casi d’uso reali in cui l’IA ha avuto un impatto sociale concreto.
Merlo, G., Bordone, G. (2025). Guida alla programmazione sociale. Teorie, pratiche, contesti. Carocci faber.
Manuale che offre una panoramica completa sull’uso dell’intelligenza artificiale nella programmazione sociale italiana, discutendo rischi, opportunità e governance.
Merlo, G. (2025). Istruzioni per l’uso delle intelligenze artificiali nella programmazione sociale. Secondo Welfare.
Linee guida pratiche per l’adozione consapevole e efficace dell’IA nei servizi sociali.
AA., Combining human and artificial intelligence for enhanced AI literacy, ScienceDirect, 2024 Esplora come l’IA possa essere usata per valutare l’efficacia dei programmi formativi e sociali, migliorando la progettazione.
https://www.sciencedirect.com/science/article/pii/S2666557324000247Jarrahi M.H. et al., Artificial intelligence and knowledge management, ScienceDirect, 2022 Analizza l’uso dell’IA per ottimizzare la gestione della conoscenza e valutare l’impatto delle politiche sociali.
https://www.sciencedirect.com/science/article/pii/S0007681322000222World Bank Group, Using Machine Learning to Improve the Accuracy of Impact Evaluations, 2023. Ricerca sul come il machine learning possa essere utilizzato per migliorare l'accuratezza e l'efficienza delle valutazioni d'impatto, in particolare nel contesto di interventi di sviluppo economico e sociale.
https://ieg.worldbankgroup.org/evaluations/machine-learning-evaluative-synthesis/chapter-1-machine-learning-applicationsSelezione per preminenza della AI Perplexity pro
World Bank Group (2023). Using Machine Learning to Improve the Accuracy of Impact Evaluations.
Ricerca su come il machine learning possa migliorare valutazioni d’impatto, velocizzandole e aumentandone l’accuratezza.
Jarrahi, M. H., et al. (2022). Artificial intelligence and knowledge management. Journal of Knowledge Management.
Analizza il contributo dell’IA nell’ottimizzazione della gestione della conoscenza e valutazione delle politiche sociali.
Lexology – Intelligenza Artificiale: impatto della regolamentazione sulla non discriminazione
Riferimento sulle implicazioni normative italiane.
Simoncin A. – Rivista AIC sull’uso predittivo/giuridico dell’IA e diritti costituzionali
Preciso per il quadro giuridico interno.
Tutti gli aggiornamenti del sito sulla
“Mi piace” per avere le notifiche . Suggeriscilo ai tuoi amici
Giorgio Merlo