AI e kernel Linux: sì, ma solo alle condizioni di Linus Torvalds

AI e kernel Linux: sì, ma solo alle condizioni di Linus Torvalds

Linus Torvalds apre all'AI nel kernel Linux, ma impone regole da seguire: contributi tracciati e rispetto delle licenze open source.
AI e kernel Linux: sì, ma solo alle condizioni di Linus Torvalds
Linus Torvalds apre all'AI nel kernel Linux, ma impone regole da seguire: contributi tracciati e rispetto delle licenze open source.

Proprio nei giorni in cui debutta la versione finale del kernel 7.0 (lo vedremo in distribuzioni come Ubuntu 26.04 LTS e Fedora 44), il papà di Linux ha deciso di dettare le linee guida da seguire per quanto riguarda l’impiego dell’intelligenza artificiale nell’evoluzione del cuore pulsante della piattaforma. Nessun divieto, ma l’obbligo per chi la utilizza di assumersi la responsabilità nel caso in cui qualcosa dovesse andare storto.

Le linee guida per i contributi AI al kernel Linux

In un documento intitolato AI Coding Assistants pubblicato su GitHub vengono definite delle regole precise. Ad esempio, i contributi per i quali sono stati usati algoritmi devono essere necessariamente accompagnati dal nuovo tag Assisted-by (al posto del solito Signed-off-by). Vanno poi indicati i tool adoperati. Inoltre, l’autore deve garantire la piena conformità con quanto previsto in termini di licenze.

Si mette così un punto al dibattito andato avanti per diversi mesi all’interno della community legata a Linux e più in generale al panorama open source. Torvalds, che nei mesi scorsi si era già pronunciato a proposito del vibe coding, ha una visione piuttosto chiara: l’AI è uno strumento come ce ne sono tanti, la differenza continueranno a farla gli esseri umani. È consapevole che non si smetterà di utilizzarla con un divieto, tanto vale adottare un approccio pragmatico. Per questo, è bene assicurarsi che alla fine siano i suoi fruitori a farsi carico delle responsabilità.

La questione relativa alle licenze è importante. Molte delle discussioni hanno riguardato proprio questo aspetto, ritenuto particolarmente delicato. Scrivendo codice con l’aiuto (o delegando il compito) di tool come Copilot e ChatGPT può essere difficile garantire che non si finisca per violarle. Il motivo? Si tratta di sistemi che fanno leva su modelli linguistici di grandi dimensioni addestrati partendo da enormi dataset e che, sostanzialmente, possono includere informazioni di qualsiasi provenienza.

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
13 apr 2026
Link copiato negli appunti