Article

Oct 5, 2025

Oltre il prompt: progettare interfacce che sbloccano il vero valore dell’AI generativa

Oltre il prompt: progettare interfacce che sbloccano il vero valore dell’AI generativa

Oltre il prompt: progettare interfacce che sbloccano il vero valore dell’AI generativa

Negli ultimi mesi ho studiato la mappa delle capacità dell’AI del team HCII di Carnegie Mellon e l’ho tradotta in scelte di design concrete. In questo articolo spiego perché il sensemaking è il vero baricentro della UX con l’AI; Se progetti prodotti AI-native, qui trovi una cassetta degli attrezzi pratica per portare valore misurabile alle persone.

Se c’è una cosa che ho imparato progettando interfacce negli ultimi anni è questa: senza conoscere a fondo le capacità reali dell’AI generativa e i pattern di interazione con cui quelle capacità diventano utilizzabili, rischiamo due errori speculari. Da una parte, immaginare esperienze entusiasmanti ma tecnicamente fragili. Dall’altra, integrare “feature AI” che non risolvono problemi concreti. La buona UX per l’era dell’AI non nasce da una casella di testo dove scrivere prompt, ma da interfacce di nuova generazione che orchestrano capacità, vincoli, feedback e fiducia.

Negli ultimi mesi ho seguito con interesse il lavoro della Carnegie Mellon (HCII) guidato da Minjung Park, che ha mappato ciò che l’AI generativa fa davvero bene oggi e i pattern d’interazione più efficaci emersi nei sistemi sperimentali e accademici. È un punto di partenza prezioso per progettare con lucidità e, soprattutto, per sbloccare valore nella vita quotidiana delle persone.

Cosa fa davvero bene l’AI generativa (oggi)

La ricerca ha analizzato 85 artefatti (studi, prototipi, sistemi) e ha estratto 294 capacità specifiche, organizzate in 33 cluster e 13 azioni, sintetizzate poi in tre grandi temi: Generare nuovi contenuti, Trasformare contenuti, Comprendere contenuti. I numeri ribaltano una percezione diffusa: la parte dominante non è la “creazione dal nulla”, ma l’analisi e la sintesi di grandi quantità di dati. In particolare, all’interno della “comprensione” spiccano funzioni come riassumere (58 capacità), rispondere a domande su un corpus, trovare simili, identificare entità e raffinare contenuti esistenti.

Perché importa al design?

I dati ci dicono una cosa chiara: oggi l’AI generativa crea più valore nel capire che nel creare. Il suo “cavallo di battaglia” è aiutare le persone a gestire, collegare e sintetizzare grandi volumi di informazioni, non solo a generare contenuti dal nulla. È una verità meno glamour, ma più matura, robusta e misurabile - e proprio per questo decisiva in prodotto.

Per noi designer questo sposta il baricentro: l’interfaccia non è (solo) un posto dove “chiedere qualcosa” all’AI, ma un ambiente di sensemaking. Dobbiamo progettare strumenti che facilitino:

  • orientamento (cosa conta davvero in questo compito),

  • riduzione (portare il rumore a segnale),

  • connessione (vedere relazioni, duplicati, contraddizioni),

  • decisione (arrivare a un output utile con fiducia e criterio).


Ma c’è un punto cruciale: le capacità, da sole, sono potenziale inespresso. Diventano valore solo quando le incastoniamo in pattern d’interazione chiari, ripetibili e comprensibili. È lo stesso salto che il nostro settore ha già fatto con le euristiche di Nielsen: un linguaggio condiviso che ha reso le interfacce più prevedibili e meno frustranti. Oggi serve un vocabolario analogo per l’AI, così che team diversi possano progettare in modo coerente e gli utenti possano riconoscere e fidarsi dei meccanismi di base (intervista guidata, vetrina di opzioni, raffinamento iterativo, ecc.).

In sintesi: se mettiamo al centro comprensione, pattern e fiducia, l’AI smette di essere un effetto speciale e diventa infrastruttura di esperienza - quella che, davvero, sblocca il potenziale dell’AI nella vita quotidiana.

Dalla mappa ai pattern: 7 modi (concreti) di interagire con l’AI

Dallo studio emergono sette pattern d’interazione ricorrenti. Sono “mattoncini” per progettare esperienze oltre il semplice prompt. Riassumo come li applico nella pratica, con micro-decisioni di UI/UX.

1. Chatbot Interview Quando servono dati precisi, il chatbot fa domande una alla volta e ti guida. Può anche compilare da solo alcuni campi (es. leggendo un PDF che carichi). Come progettarlo: barra di progresso, promemoria del contesto, bottoni con risposte già pronte; possibilità di salvare e riprendere.

2. Reveal Dimensions Se l’utente non sa cosa considerare, l’interfaccia mostra le leve importanti (criteri, limiti, pro/contro) con esempi e scelte popolari. Come progettarlo: slider con anteprima immediata, brevi pillole di spiegazione, filtri rapidi basati sui dati reali.

3. Something Like This Invece di spiegare a parole, l’utente carica esempi (file, link, moodboard). L’AI capisce lo stile e propone varianti. Come progettarlo: area di upload chiara con metadati visibili, “abbiamo riconosciuto: tono X, palette Y”, controlli per dare più o meno peso a ogni esempio.

4. Dessert Cart Quando l’idea è vaga, mostra opzioni già pronte (snippet, layout, prototipi) da scegliere e poi rifinire. Come progettarlo: galleria con anteprime confrontabili, tag utili, una nota “perché te lo suggeriamo”, selezione multipla per combinare più opzioni.

5. Refine This Parti da una bozza e migliorala a piccoli passi: vedi → modifica → valuta (tono, lunghezza, struttura). Come progettarlo: differenze evidenziate tra versioni, cronologia navigabile, “annulla sicuro”, piccole spiegazioni del tipo “ridotta ripetizione del 23%”.

6. Complete This Se ti blocchi, l’AI propone il prossimo passo o completa parti ovvie. Come progettarlo: suggerimenti nel punto giusto (autocompletamento di paragrafo o funzione), breve “perché”, e alternative tra cui scegliere (“3 passi possibili”).

7. Blank Page Paralysis Per iniziare, l’AI offre bozze e template già orientati al tuo ruolo e obiettivo. Come progettarlo: pulsante iniziale con preset tematici, checklist di obiettivi, consigli su come migliorare la bozza mentre lavori.

Nota: questi pattern non sostituiscono l’ideazione; sono strumenti per comporre flussi che rispettano capacità e limiti del modello, con affordance e feedback adeguati.

Principi di progettazione per interfacce “AI-native”

Dal mio punto di vista, la lezione più forte è che progettare per l’AI significa progettare sistemi conversazionali + strutturali. Ecco i principi che applico:

  1. Progressive scaffolding Guida che cresce o decresce in base alla confidenza dell’utente. Inizio con “Dessert Cart” o “Blank Page”, poi passo a “Refine This”. Riduce carico cognitivo senza ingabbiare l’esplorazione. (Risponde anche al rischio di “binari troppo stretti” che la stessa ricerca solleva implicitamente.)

  2. Surfacing model limits Esporre confidenza e copertura: “alta su riassunti, bassa su previsioni non supportate”; motivare gli output con fonti e passaggi (citazioni, highlight del contesto usato). Questo allinea con le raccomandazioni più ampie su risk-aware AI e costruisce fiducia operativa.

  3. Human-AI pairing Incorporare fasi in cui l’umano decide criteri di qualità (taste), l’AI esplora lo spazio delle soluzioni. UI dedicate alla selezione comparata (side-by-side) e a spiegazioni sintetiche (“perché A differisce da B”). Co-creazione, non sostituzione.

  4. Intent over prompt Catturare l’intento con multi-modalità (esempi, file, strutture) e non solo testo. Riduce ambiguità, aumenta replicabilità e consente riuso dell’intento come asset di design.

  5. Controlli locali, non globali Le manopole devono essere vicino all’output che modificano (tone slider per una sezione, stile per un grafico). Evita effetti “black-box” e favorisce responsabilità condivisa.

  6. Verifica integrata Ogni output “di comprensione” (la classe più frequente) dovrebbe offrire check rapidi: cross-ref con fonti, “trova simili per validare”, “chiedi controesempi”. Interazione pensata per testare il risultato, non solo consumarlo.


Dalla teoria alla pratica: scenari d’uso ad alto impatto

Per dare concretezza, tre scenari dove vedo valore immediato:

  • Post-meeting intelligence Caricare registrazioni e materiali; l’AI riassume per ruolo (PM, designer, engineering), evidenzia decisioni e “punti aperti”, propone la bozza di ticket. Pattern: “Understand → Refine → Complete”. (Capacità di riassunto/risposta sono oggi mature.)

  • Knowledge ops per team ibridi Connettere wiki, drive e issue tracker; l’AI trova simili, collega duplicati, segnala incongruenze, genera schede comparate. Pattern: “Reveal Dimensions” + “Something Like This”.

  • Onboarding di strumenti complessi Intervista conversazionale che capisce obiettivi dell’utente e compone preset di funzionalità; propone tour dinamici e task da completare con aiuto step-by-step. Pattern: “Chatbot Interview” + “Complete This”.


Evitare le trappole: guida sì, binari no

Il timore che “Reveal Dimensions” o “Dessert Cart” riducano la serendipità è fondato. La mia risposta progettuale è un set di contrappesi:

  • Esplorazione controllata: sempre una corsia “freestyle” accanto alle opzioni guidate (es. campo libero + esempi).

  • Randomize & Surprise: un pulsante “mostrami qualcosa di inaspettato” che introduce variazioni fuori cluster.

  • Iper-trasparenza: indicare quando una proposta deriva da “ciò che è popolare” vs da una logica di copertura dello spazio.

  • Metriche di diversità: nei sistemi di raccomandazione, mostrare quanto le opzioni differiscono (distanza semantica) per incoraggiare scelte non ovvie.


Così manteniamo agency e apertura creativa, senza perdere la frizione positiva della guida.

Conclusione

Come designer di interfacce, credo che il compito non sia “mettere l’AI ovunque”, ma progettare contesti in cui l’AI è davvero utile. La mappa di Carnegie Mellon ci ricorda che oggi l’AI generativa porta più valore nel capire che nel creare; i sette pattern ci offrono una grammatica concreta per trasformare capacità in esperienze affidabili. Il resto è responsabilità progettuale: scegliere con cura quando guidare e quando lasciare spazio. È qui che le interfacce di nuova generazione faranno la differenza - sbloccando potenziale reale nelle nostre giornate, non solo demo spettacolari.


Riferimenti principali

  • Minjung Park (HCII, CMU), What Generative AI really does: A map of its capabilities and interaction design patterns, 17 settembre 2025. (sintesi pubblica con dataset di 85 artefatti e 294 capacità).

  • Park et al., Exploring the Innovation Opportunities for Pre-trained Models (ACM DL), 4 luglio 2025 — include l’elenco degli 85 artefatti, le 294 capacità e i 7 pattern.

  • HCII, CMU – Human-AI collaboration can unlock new frontiers in creativity, 30 maggio 2025. (co-creazione come leva di qualità e varietà).


We don’t just build technology.
We design relationships. Let’s connect.

contact@01design.it

Tomorrow’s Design Today

We don’t just build technology.
We design relationships. Let’s connect.

contact@01design.it

Tomorrow’s Design Today

We don’t just build technology.
We design relationships. Let’s connect.

contact@01design.it