Assistente AI contestuale

Come funziona l'AI di Lexferie e dove si ferma.

L'assistente AI non dovrebbe essere percepito come un canale libero che legge tutto. Il suo valore vero nasce dal contesto operativo che riceve, dai controlli di perimetro e dalla distinzione chiara tra dato live, CCNL, policy interna e calcolo.

Cosa riceve davvero

  • la domanda attuale dell'utente;
  • il profilo che sta chiedendo, con tenant e ruolo disponibili nel flusso;
  • il contesto minimo utile del dipendente o del team, quando la richiesta lo richiede;
  • le regole CCNL e la policy interna tenant solo quando rilevanti per il caso.

Cosa non dovrebbe ricevere

  • un accesso indiscriminato a tutti i dati del database;
  • dati di tenant diversi da quello autorizzato;
  • segreti, credenziali o materiale operativo che non serve alla risposta;
  • contesto extra se la domanda puo essere risolta con dati piu stretti e verificabili.

Come si riduce il rischio di vedere dati non autorizzati

L'assistente lavora dopo l'identificazione del profilo nel portale o nella miniapp. Il contesto operativo utile viene costruito nel perimetro tenant e, quando serve, nel perimetro dipendente o team autorizzato.

Questo significa che il prompt non dovrebbe allargare da solo il perimetro della risposta: il filtro a monte deve restare tecnico, non lasciato all'iniziativa del modello.

Permission check prima della risposta

La domanda utile da farsi non e se il modello "capisce" i permessi, ma se il sistema costruisce il contesto giusto prima di chiamarlo. In Lexferie la risposta affidabile nasce da quel filtro: profilo autenticato, tenant corretto, dati filtrati e assenza di contesto fuori perimetro.

Le quattro letture che Lexferie prova a tenere separate

  • dato live: residui, turni, storico, documenti o richieste reali;
  • CCNL: regole contrattuali di riferimento;
  • policy interna: regole locali del tenant o del servizio;
  • calcolo operativo: sintesi, warning o lettura costruita dal motore.

Quando manca contesto

Se il contesto disponibile non basta, la risposta corretta non e inventare. E dichiarare che manca contesto, che serve un controllo umano o che il caso richiede una verifica contrattuale o amministrativa ulteriore.

Provider LLM e dati usati

Il modulo AI usa un endpoint LLM configurato per ambiente tecnico. Il provider attivo puo variare in base all'assetto in uso. Per questo la pagina pubblica non promette in modo generico dettagli su retention o training del provider: se ti servono per valutazione aziendale, vanno confermati nel materiale tecnico o contrattuale applicabile al tenant.

Cosa non e l'AI di Lexferie

  • non e un motore di autorizzazione ai dati;
  • non sostituisce decisioni legali, HR o disciplinari;
  • non dovrebbe trasformare una policy interna in fonte normativa;
  • non dovrebbe creare numeri o fatti non presenti nel contesto reale.