Thunderbird ha un calendario tutto suo

Pronta per il download la prima versione preliminare di Lightning, un'estensione che integra in Thunderbird funzionalità base per la gestione degli appuntamenti e dei task. La strada verso la maturità sembra però ancora piuttosto lunga

Roma – Gli utenti di Thunderbird possono finalmente provare una prima versione ufficiale di Lightning, l’estensione progettata per integrare nel client e-mail di Mozilla Foundation funzionalità di calendario e agenda.

Lightning 0.1 , di cui lo scorso anno Punto Informatico aveva già provato una nightly build , arriva con diversi mesi di ritardo rispetto ai piani di rilascio iniziali, e ad oltre un anno di distanza dal varo del progetto. Nonostante questo, l’attuale release di Lightning è poco più di una bozza: il componente include al momento solo poche funzionalità di base, quali calendario (con vista giornaliera, settimanale e mensile), registrazione di appuntamenti e altre date da ricordare, creazione di una lista di cose da fare, importazione ed esportazione degli eventi in formato iCalandar e CSV, e accesso a calendari on-line per mezzo dei protocolli HTTP/ WebDAV .

Gli sviluppatori consigliano caldamente agli utenti di non utilizzare Lightning 0.1 per lavoro o per la gestione di dati importanti: i bug sono infatti ancora molti , e alcuni di questi – come la modifica di calendari o eventi creati con altri programmi o da altri utenti – possono causare la perdita di tutte le informazioni archiviate dal software. I problemi noti di questa release si trovano elencati qui .

Lightning 0.1 - Clicca per ingrandire Nel prossimo futuro, il team di sviluppo di Lightning conta di aggiungere alla propria estensione il supporto alla consultazione off-line dei calendari su Web, funzionalità per la sincronizzazione con PDA e smartphone , e specifiche funzioni di stampa. Verrà poi migliorato il supporto agli standard CalDAV e iMIP e l’integrazione con Thunderbird, di cui Lightning potrà finalmente condividere la rubrica e accedere alle funzioni di posta elettronica.

Lightning si basa sul codice sviluppato in seno al progetto open source Calendar , lo stesso da cui hanno preso vita l’omonimo componente per Thunderbird e il programma autonomo Sunbird . Lightning condividerà le stesse feature dei propri cugini ma, a differenza di questi, si integrerà profondamente con Thunderbird . Se è infatti vero che anche Calendar può essere installato in Thunderbird sotto forma di estensione, le sue funzionalità rimangono totalmente slegate da quelle del client e-mail: un esempio è dato dagli allarmi, che si attivano soltanto se si lascia la finestra di Calendar aperta. Una limitazione che non interessa invece Lightning, la cui interfaccia si accorpa a quella di Thunderbird.

Lightning 0.1, scaricabile da qui per Windows, Linux e Mac OS X in lingua inglese, può essere installato esclusivamente in Thunderbird 1.5 .

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • Anonimo scrive:
    Re: Per la redazione
    loggati la prossima volta.
  • Anonimo scrive:
    Re: Per la redazione
    - Scritto da: Anonimo
    Che stronzata!
    Secondo te quando in un videogioco vedi un corpo
    che rimbalza realisticamente contro un muro è
    solo un effetto grafico? secondo te una scheda
    video riuscirebbe a farti vedere ciò se prima (o
    contemporanemente) non viene calcolata la sua
    posizione e l'interazione con gli oggetti
    presenti nello scenario?
    è come se vedessi una pallina che rimbalza e
    dici:"ha be, è solo un effetto ottico, ma non è
    stata applicata nessuna legge fisica per farla
    rimbalzare!". CURATI!Magari hai pure ragione ma ti pare il modo di esprimersi?
  • Anonimo scrive:
    Re: Per la redazione
    Che stronzata!Secondo te quando in un videogioco vedi un corpo che rimbalza realisticamente contro un muro è solo un effetto grafico? secondo te una scheda video riuscirebbe a farti vedere ciò se prima (o contemporanemente) non viene calcolata la sua posizione e l'interazione con gli oggetti presenti nello scenario?è come se vedessi una pallina che rimbalza e dici:"ha be, è solo un effetto ottico, ma non è stata applicata nessuna legge fisica per farla rimbalzare!". CURATI!
  • TaGoH scrive:
    Per la redazione
    Gli articoli in rete mostrano chiaramente, che quello che viene accellerato non è al fisica del gioco, solo la fisica "grafica" cioè fisica di effetti grafici, ma non migliorano la fisica del gioco (collisione tra persone e muri etc...)Grazie
  • Anonimo scrive:
    Re: Novita'?
    - Scritto da: Anonimo
    Quello citato nell'articolo si
    distinguerà per velocità e qualità, potendo
    interagire direttamente con la GPU per
    l'esecuzione dei calcoli. Prima i calcoli base
    dell'engine fisico erano a carico della CPU, la
    GPU renderizzava e basta.Ma "prima" quando? Ti ho appena detto che gli engine attuali gia' sfruttano attivamente la GPU per calcoli in virgola mobile prima asserviti dalla CPU... quindi, la domanda e' (ripeto): quale diavolo e' la "news" se gia' lo fanno tutti?
  • Anonimo scrive:
    Re: Novita'?
    - Scritto da: avvelenato

    Lo faranno per cercare di ostacolare la

    diffusione (per ora tanto e' ZERO) di schede

    create apposta per gli scopi di cui sopra. Ad esempio questahttp://www.ggmania.com/?smsid=21209

    Basterebbe comunque il potere di calcolo delle

    cpu attuali per fare tutto, se si perdesse il

    tempo di programmarle come meritano, ma ormai le

    sole cose che contano sono i tempi, le scadenze,

    e i costi.
    non dire cazzate, lo sanno tutti che le gpu sono
    dei processori altamente ottimizzati per i
    calcoli vettoriali.Tutti forse no, io comunque si', lo sapevo, grazie.E confermo quanto ho scritto sopra.
    una volta fu presentato un software che
    permetteva editing audio accelerato via gpu, e
    informavano come un pentium 4 a 3,2ghz o
    equivalente amd raggiungeva 6,4gflops, mentre una
    scheda video hi-end ne raggiungeva 24.Che le GPU siano piu' efficienti in determinate, limitate operazioni ripsetto un processore CISC e' ovvio.Riguardo alla fisica dei giochi, confermo quanto ho scritto sopra.
    tanta saccenza mi fa presupporre che lei siaE' un'opinione tua, te la lascio.
    esperto di programmazione in motori grafici,
    videogiochi e quant'altro... sarebbe curioso se
    esternasse le sue credenzialità!Non mi sembra importante. Confermo sempre quanto sopra.
    Non hai immaginato che a dire cazzate come quelle
    di cui sopra uno che programma videogiochi
    potrebbe prendersela seriamente a male?No, ho presente cosa significa e dove la maggior parte del tempo viene spesa all'interno di un gioco FPS.Ciao e curati.Burp
  • Anonimo scrive:
    Re: Novita'?
    - Scritto da: Guybrush
    Un giretto su sourceforge dovrebbe togliere
    qualche dubbio: e' da piu' di un anno che ci sono
    in giro programmi che approfittano della potenza
    di calcolo delle GPU per fare altro.


    GT
  • Guybrush scrive:
    Re: Novita'?
    - Scritto da: Anonimo[]
    era ora che venisse fuori! non serve neanche uno
    scienziato, basta leggere le specifiche per
    capire che ormai le schede video high end sono
    mooolto piu' potenti delle cpu e che era ora che
    qualcuno pensasse di sfruttare tanta potenza
    sprecata (anche se per fare giochini)Un giretto su sourceforge dovrebbe togliere qualche dubbio: e' da piu' di un anno che ci sono in giro programmi che approfittano della potenza di calcolo delle GPU per fare altro.
    GT
  • Anonimo scrive:
    Re: Novita'?
    azz! stavo per postarlo io! ;)
  • Anonimo scrive:
    Re: Novita'?
    - Scritto da: avvelenato

    una volta fu presentato un software che
    permetteva editing audio accelerato via gpu, e
    informavano come un pentium 4 a 3,2ghz o
    equivalente amd raggiungeva 6,4gflops, mentre una
    scheda video hi-end ne raggiungeva 24.era ora che venisse fuori! non serve neanche uno scienziato, basta leggere le specifiche per capire che ormai le schede video high end sono mooolto piu' potenti delle cpu e che era ora che qualcuno pensasse di sfruttare tanta potenza sprecata (anche se per fare giochini)
  • gpl scrive:
    Re: Novita'?
    http://www.gpgpu.org/Gia' da tempo distribuiscono libreria e sorgenti :) per sfruttare le gpu.Quindi direi "Novita' commerciale"
  • Anonimo scrive:
    Re: Novita'?
    Le cazzate le dici tu. Qui si tratta di un vero e proprio complotto catto-comunista contro le CPU.
  • Anonimo scrive:
    Re: Novita'?
    - Scritto da: Anonimo
    Negli engine attuali che supportano dx9 si fa
    gia' ampio uso di questa tecnica, sfruttando
    proprio gli shaders 3.0, non capisco qual e' la
    novita'? Hanno creato una libreria che ne
    "standardizza" l'utilizzo? Non mi pare una
    novita'.Immagino di si', non e' la prima volta che un GPU si usa per fare cose simili.Lo faranno per cercare di ostacolare la diffusione (per ora tanto e' ZERO) di schede create apposta per gli scopi di cui sopra. Basterebbe comunque il potere di calcolo delle cpu attuali per fare tutto, se si perdesse il tempo di programmarle come meritano, ma ormai le sole cose che contano sono i tempi, le scadenze, e i costi.D'altronde i giochi sono prodotti commerciali, quindi li capisco. Burp
    • Anonimo scrive:
      Re: Novita'?
      Così come esistono engine 3D utilizzati da più giochi, per ragioni di rapidità di sviluppo (inutile inventare l'acqua calda), per dare maggiore realismo si tende ora ad usare anche engine fisici di terze parti per simulare meglio le interazioni fra gli oggetti 3D. Anche qui esistono diversi engine fisici, qualcuno decente, altri scarsi. Quello citato nell'articolo si distinguerà per velocità e qualità, potendo interagire direttamente con la GPU per l'esecuzione dei calcoli. Prima i calcoli base dell'engine fisico erano a carico della CPU, la GPU renderizzava e basta.
    • avvelenato scrive:
      Re: Novita'?
      - Scritto da: Anonimo

      - Scritto da: Anonimo

      Negli engine attuali che supportano dx9 si fa

      gia' ampio uso di questa tecnica, sfruttando

      proprio gli shaders 3.0, non capisco qual e' la

      novita'? Hanno creato una libreria che ne

      "standardizza" l'utilizzo? Non mi pare una

      novita'.

      Immagino di si', non e' la prima volta che un GPU
      si usa per fare cose simili.

      Lo faranno per cercare di ostacolare la
      diffusione (per ora tanto e' ZERO) di schede
      create apposta per gli scopi di cui sopra.

      Basterebbe comunque il potere di calcolo delle
      cpu attuali per fare tutto, se si perdesse il
      tempo di programmarle come meritano, ma ormai le
      sole cose che contano sono i tempi, le scadenze,
      e i costi.
      non dire cazzate, lo sanno tutti che le gpu sono dei processori altamente ottimizzati per i calcoli vettoriali.una volta fu presentato un software che permetteva editing audio accelerato via gpu, e informavano come un pentium 4 a 3,2ghz o equivalente amd raggiungeva 6,4gflops, mentre una scheda video hi-end ne raggiungeva 24.
      D'altronde i giochi sono prodotti commerciali,
      quindi li capisco.

      Burp
      tanta saccenza mi fa presupporre che lei sia esperto di programmazione in motori grafici, videogiochi e quant'altro... sarebbe curioso se esternasse le sue credenzialità!Non hai immaginato che a dire cazzate come quelle di cui sopra uno che programma videogiochi potrebbe prendersela seriamente a male?
  • Anonimo scrive:
    Novita'?
    Negli engine attuali che supportano dx9 si fa gia' ampio uso di questa tecnica, sfruttando proprio gli shaders 3.0, non capisco qual e' la novita'? Hanno creato una libreria che ne "standardizza" l'utilizzo? Non mi pare una novita'.
Chiudi i commenti