Google Groups no longer supports new Usenet posts or subscriptions. Historical content remains viewable.
Dismiss

algoritmi compressione

59 views
Skip to first unread message

biscia

unread,
Mar 7, 2004, 5:08:56 AM3/7/04
to
cosa pensate della tesi di enzo criscione, professore di informatica 4
all'università di macerata, che sostiene di avere creato un algoritmo di
compressione non lossy che comprime ad ogni iterazione e permette di
comprimere un cd in pochissimi byte...
le tv locali, compresa rai tre ne parlano come di un genio incompreso, a me
le sue tesi sembrano cozzare contro ogni base della teoria
dell'informazione. non vorrei avanzare la tesi di www.gameprog.it che lo
classifica come un umorista, ma francamente non capisco come una soluzione
così avanzata se fosse reale e generale non sia già stata utilizzata.
p.s.
quali sono i titoli per insegnare informatica all'università? sarei
interessato...

visert

unread,
Mar 8, 2004, 12:41:39 PM3/8/04
to

biscia wrote:
> cosa pensate della tesi di enzo criscione, professore di informatica 4
> all'università di macerata, che sostiene di avere creato un algoritmo di
> compressione non lossy che comprime ad ogni iterazione e permette di
> comprimere un cd in pochissimi byte...

non lo conoscevo fino a 1 minuto fa.
Devo dire che è molto originale...

> le tv locali, compresa rai tre ne parlano come di un genio incompreso, a me
> le sue tesi sembrano cozzare contro ogni base della teoria
> dell'informazione.

in effetti...

> non vorrei avanzare la tesi di www.gameprog.it che lo
> classifica come un umorista, ma francamente non capisco come una soluzione
> così avanzata se fosse reale e generale non sia già stata utilizzata.

prima di tutto bisogna vedere cosa intendi per "usare".
Su grande scala ovviamente qualunque scoperta va sottoposta a molti test
e analisi...

> p.s.
> quali sono i titoli per insegnare informatica all'università? sarei
> interessato...

il normale corso di studi accademico:
dottorato di ricerca->ricercatore->professore associato->professore
ordinario ma in pratica poi "insegnano" anche i dottorati.
Bisogna poi vedere "cosa" insegnano. Per insegnare un linguaggio di
programmazione è più che sufficente un dottorando e sotto-utilizzato
un professore che in quelle ore potrebbe "scoprire" molte cose interessanti.

ciao,
daniele

giannantonio filiberto adalgiso

unread,
Mar 9, 2004, 3:08:49 AM3/9/04
to
mi date qualche link sulla sua idea per favore ??

biscia

unread,
Mar 9, 2004, 11:50:28 AM3/9/04
to

> il normale corso di studi accademico:
> dottorato di ricerca->ricercatore->professore associato->professore
> ordinario ma in pratica poi "insegnano" anche i dottorati.
> Bisogna poi vedere "cosa" insegnano. Per insegnare un linguaggio di
> programmazione è più che sufficente un dottorando e sotto-utilizzato
> un professore che in quelle ore potrebbe "scoprire" molte cose
interessanti.
>
> ciao,
> daniele

quindi una laurea in architettura e nessun dottorato e nessuna pubblicazione
di rilievo è piuttosto particolare, o no ?

Giovanni Resta

unread,
Mar 9, 2004, 3:43:02 AM3/9/04
to
biscia wrote:
> cosa pensate della tesi di enzo criscione, professore di informatica 4
> all'università di macerata, che sostiene di avere creato un algoritmo di
> compressione non lossy che comprime ad ogni iterazione e permette di
> comprimere un cd in pochissimi byte...

Se vai su

http://groups.google.it/

e cerchi
"enzo criscione"

trovi alcuni thread del 1998 che ne parlano,
compreso un mio intervento del quale mi ero assolutamente dimenticato.
Secondo me era un caso umano abbastanza patetico.

Non pensavo fosse ancora al lavoro su quella cosa.

A quel tempo affermava poter comprimere qualunque
CD in 100 bytes (!).
Solo che non voleva far vedere il programma a nessuno
escluso Bill Gates (!!!) per paura che glielo copiassero.

A suo tempo avevo pensato di "sfidarlo" a comprimere
un mio CD su un computer (gli avrei concesso non 100 bytes,
ma un intero floppy), portare il floppy su un altro computer
e decomprimerlo. Dopo di che avrebbe potuto formattare i dischi fissi
dei due computer per motivi di sicurezza. Ho rinunciato a
lanciare la sfida perche' non mi piace infierire.
Ciao,
g.

Denis Flex

unread,
Mar 12, 2004, 9:14:46 AM3/12/04
to
Voglio spezzare una piccola lancia a favore di questa idea.

Dire di poter comprimere qualsiasi cd in 100 byte a prima vista sembra
palesemente errato visto che 2^100byte e' gran lunga piu' piccolo di 2^1Gb
per cui tutte le combinazioni di 1Gb non stanno in 100 byte .
Pero togliendo il caso specifico non e' vero che dato un M > N dove M e' la
lunghezza della stringa da comprimere ed N e' la dimensione della stringa
compressa per ogni stringa di lunghezza M esistente non si riesca a
comprimerla in una stringa di lunghezza N.
Il trucco sta nel fatto che bisogna tener presente da dove arriva la stringa
lunga M da comprimere , una cosa e' dire tutte le stringhe possibili ed un
altra e' dire tutte le stringhe esistenti.
Infatti , vi e' la possibilita' che la stringa lunga M che si vuole
comprimere risulti prodotta sempre da un programma!
Se questo fosse vero le strighe di dimensione M sarebbero prodotte da un
programma la cui complessita' e' di dimensione K per cui se prendiamo un M
sufficientemente grande avremo che il programma piu' piccolo che produce
tutte le possibili stringhe di dimensione M e' piu grande di K , ne segue
che le stringhe esistenti di dimensione M sono una quantita' inferiore di
2^M .
All' aumentare di M le stringhe esistenti sarebbero sempre meno numerose
rispetto a 2^M e piu' precisamente potrebbero essere 2^N.
Per andare un po' sul pratico sfido chiunque a produrre tutte le stringhe
possibili lunghe 1Gb. E' teoricamente possibile ma praticamente impossibile
e sono le leggi fisiche che lo rendono impossibile .
Quindi , non so se le cose siano corrette per i numeri messi in gioco
(100byte ed 1Gb) ma ritengo che vi siano dei valori M ed N per cui questo e'
vero.
Spero di aver spiegato a sufficienza la mia posizione.

Ciao, Denis.

Usenet MARco 16467.7145

unread,
Mar 13, 2004, 12:28:55 PM3/13/04
to
~\/~ "Denis" == Denis Flex <De...@Denis.com> writes:

Denis> Voglio spezzare una piccola lancia a favore di questa idea.
....
Denis> Quindi , non so se le cose siano corrette per i numeri
Denis> messi in gioco (100byte ed 1Gb) ma ritengo che vi siano dei
Denis> valori M ed N per cui questo e' vero.
....


come da link
http://groups.google.com/groups?threadm=27MAY98.13503607%40skyway.usask.ca

Enzo Criscione> can put just anything in 100 byte, and without loss.


non so cosa intendesse con la parola "just" che e` gia` segno di ridondanza...
ma probabilmente egli non ha neanche la piu` pallida idea di cosa
"anything" significa.

As esempio una stringa lunga 1Gbyte da` origine a
2^8000000 combinazioni possibili, e anche un solo byte
in piu` moltiplica questo gigantesco numero di combinazioni, per 256.
[Denis come molti, ha poi solo intuito che non c'e` spazio per mettere
cosi` tante informazioni, ed ha proseguito nell'assunto che
gli algoritmi di compressione esistono, ma senza conoscerli. ]

Chiariamo anche che per tutti i cosiddetti algoritmi di compressione
esistono stringhe, che anziche` essere compresse sono *espanse*.
(a meno di casi degenere in cui l'algoritmo ne` comprime ne` espande,
o specula (inutilmente ai fini della compressione) sull'arrotondamento
intero per cambio di base, o per confrontare cardinalita` su basi differenti)

Gli algoritmi di compressione lasciano questo inevitabile effetto collaterale
alle stringhe meno probabili, in assenza di probabilita` non ha
senso parlare di algoritmi di compressione.
Anzi diciamo che il caso peggiore e` quando la probabilita` dei
differenti possibili input e` equamente distribuita: e` nullo il massimo
valore medio di compressione. In un bit posso mettere due sequenze
enormi di bit solo se tutte le rimanenti sequenze hanno probabilita` nulla.

Anzi io non li chiamerei neanche "algoritmi di compressione", bensi`
"algoritmi di mappatura probabilistica dell'input". -- MARco Munari

Data la quantita` di caratteristiche del tantissimo input possibile,
e non potendosi appoggiare a dispendiosi database, non e` certo
compito facile per un algoritmo estrarre le essenze universali. Cosi`
ne estreggono sottoinsiemi mirati.

Tra tutte le possibili sequenze in input (considerate globalmente),
la media pesata della lunghezza delle stringhe di output
(pesata dalla probabilita`), ha nella teoria della compressione
l'estremo inferiore legato all'entropia.


Le sequenze di input sono trasformate in sequenze di bit.
Teoricamente il miglior risultato lo si ha quando la mappatura globale
dispone ordinatamente le probabilita` decrescenti abbinandole ad ad una conta
(rappresentazione (inevitabilmente) crescente in numero di bit (unita`
rappresentative di base)).

L'output va naturalmente riconosciuto nel processo inverso (decompressione).
Per questo l'entropia teorica e` ben rappresentata dalla somma
dei logaritmi delle probabilita` pesate (aumenta inesorabilmente
all'aumentare dei casi possibili)

(C)Copyright 2004 by dio^H^H^HMARco Munari <mar i.am>. All rights reserved.


Saluti,
MARco http://mar.i.am/#isi16467.7145?
--
x(t),y(t) = th(3t-34.5)*e^[-(3t-34.5)^2]/2-4.3+e^(-1.8/t^2)/(.8*atg(t-
3)+2)(t-1.8)-.3th(5t-42.5),(1.4e^[-(3t-34.5)^2]+1-sgn[|t-8.5|-.5]*1.5*
|sin(pi*t)|^[2e^(-(t-11.5)^2)+.5+e^(-(.6t-3.3)^2)])/(.5+t)+1 ; 0<t<14

biscia

unread,
Mar 14, 2004, 4:28:20 AM3/14/04
to

> e sono le leggi fisiche che lo rendono impossibile .
quali??

Dino.

unread,
Mar 14, 2004, 7:15:17 AM3/14/04
to
.. Ma se anche fosse un file >> di 1 Giga cosa cambierebbe??
Divido il file in n Blocchi da 1 Giga, comprimo ogni blocco in un file di
100 bytes... li concateno fino a formare altri gruppi da un giga...
ricomprimo di nuovo ... riformo...
Mi ricorda tanto
God wrote pkunzip universe.zip

Dove, ovviamente, universe.zip è un file di 100 byte...

Dino.

--

questo articolo e` stato inviato via web dal servizio gratuito
http://www.newsland.it/news segnala gli abusi ad ab...@newsland.it

MARco Munari 16468.25548

unread,
Mar 14, 2004, 12:46:06 PM3/14/04
to
~\/~ "biscia" == biscia <x...@aa.bb> writes:

biscia> > e sono le leggi fisiche che lo rendono impossibile .

biscia> quali??

Tu sei quello cha ha fatto partire il thread in it.scienza.informatica,
leggi il mio intervento precedente in questo stesso thread.


Essenzialmente gli algoritmi di compressione (lossless)
non comprimono tutto, ma solo le combinazioni piu` probabili,
*espandono* invece inevitabilmente un po' le meno probabili; chi
non sa questo e` perche` nel cosiddetto approfondimento cognitivo
dei cosiddetti "algoritmi di compressione" si e` fermato al nome.
Per evitare errori dell'intuito superficiale, io proporrei
il cambiamento del nome di questi algoritmi in "algoritmi di
mappatura delle probabilita` dell'input".


(1) Uno dei b^(m+2(m-1)+3(m-2)+...+(m-2)*3+(m-1)*2+m)
equivalenti migliori algoritmi (anzi mappature) di compressione
degli input in base b di lunghezza m (quindi di lunghezze finite/limitate)
e` la mappatura ordinata
dei possibili (interi cioe` completi) input abbinati alla
conta delle decrescenti rispettive probabilita`. -- Marco Munari

Nota:
le rimanenti prod( i=1..m , prod( j=1..i , b^j ) )-1
( = b^(m+2(m-1)+3(m-2)+...+(m-2)*3+(m-1)*2+m)-1 )
funzioni dall'efficacia identica e ottimale sono date
dalle altre possibili permutazioni, ma quella creata con il conteggio
ordinato e` ottimale per qualsiasi base numerica usata a rappresentazione
elementare dell'output (costituito da elementi enumerati da 0 a b-1,
dove ad esempio potrebbe intervenire una proprieta` fisica
conservativa a b valori per la memorizzazione del dato compresso).

C'e` una bozza di dimostrazione di (1) nel precedente post, che parte
dall'output, ma potrei farla meglio, ma gia` con le premesse mi
sembra ovvia.

(2) Per input di lunghezza massima indefinita invece, il miglior
algoritmo di compressione e` ottenibile da
uno schema aperto di ordinamento in senso decrescente delle
rappresentazioni delle frequenze di tutti i possibili pattern
caratteristici e relative evoluzioni funzionali che implicitamente
esistono in quanto hanno senso probabilistico. Il "senso" e` dato dalla
natura logica o fisica piu` o meno nota dell'input. -- Marco Munari

questo vale anche per perdita di equivalenza meticolosa
tra input e decompresso, purche` rimanga congruente se marginata
da un errore definito da un modello matematico di natura percettiva.

Dovrei dire in termini piu` complessi, ma temo che mi capirei solo io(?),
che la la "logica" in questione va considerata nel suo senso piu`
completo in ambito probabilistico, essendo la logica in necessaria
correlazione con il mondo reale (vero), anche per la logica esiste
sempre un modello fisico di base che ne caratterizza gli effetti
probabilistici (altrimenti non e` logica, o e` una regione della
logica poco approfondita che in quanto formalmente esistente
e` conosciuta da altri).


Confronta:
Huffman e` un misto tra la (1) e la (2) ma solo localmente
ordina le probabilita` _dei simboli_ che _compongono_ l'input.

Altri algoritmi di compressione estendono Huffman considerando
anche la probabilita` di subset di sequenze di simboli.

Nel campo delle immagini la probabilita` e` esplotata in due dimensioni,
o tre per filmati.


(C)Copyright 2004 by Marco Munari <mar i.am>. All right reserved.

1. Redistributions of any derived part of this publidcation must retain
the above copyright notice, this list of conditions and disclaimer.
2. Redistributions must reproduce the above copyright notice, this list
of conditions and the following disclaimer in the documentation
and/or other materials provided with publication.
3. Neither the name of the author nor the names of its contributors
may be used to endorse or promote products derived from the publication
without specific prior written permission by the author.
THIS INFORMATION IS PROVIDED ``AS IS'' AND ANY EXPRESS OR IMPLIED WARRANTIES,
INCLUDING, BUT NOT LIMITED TO, THE IMPLIED WARRANTIES OF MERCHANTABILITY
AND FITNESS FOR A PARTICULAR PURPOSE ARE DISCLAIMED.
IN NO EVENT SHALL THE REGENTS OR CONTRIBUTORS BE LIABLE FOR ANY DIRECT,
INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR CONSEQUENTIAL DAMAGES
(INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF SUBSTITUTE GOODS
OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS INTERRUPTION)
HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN CONTRACT, STRICT
LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE) ARISING IN ANY WAY
OUT OF THE USE OF THIS PUBLICATION, EVEN IF ADVISED OF THE POSSIBILITY OF
SUCH DAMAGE.


Saluti,
MARco

Denis Flex

unread,
Mar 16, 2004, 3:05:39 AM3/16/04
to

"Dino." <dino...@hotmail.com> ha scritto nel messaggio
news:c31icl$2an$1...@news.newsland.it...

> .. Ma se anche fosse un file >> di 1 Giga cosa cambierebbe??
> Divido il file in n Blocchi da 1 Giga, comprimo ogni blocco in un file di
> 100 bytes... li concateno fino a formare altri gruppi da un giga...
> ricomprimo di nuovo ... riformo...

Giusto.

Se supponiamo di trovare il programma P che rappresenta tutte le stringhe da
1Gb le quali non coprono tutto lo spettro di 2^1Gb e' possibile creare un
programma C1 che comprime tutte queste stringhe .
A questo punto sfruttando C1 si potrebbero creare altre stringhe da 1Gb non
producibili pero' da P ma solo da P+C1 quindi si va contro le ipotesi di
funzionamento di C1 per cui C1 non sara' in grado di comprimerle.
Successivamente pero' sara' possibile creare un programma C2 che comprime le
stringhe prodotte da P+C1 se queste saranno inferiori a 2^1Gb e cosi' via
fino Cn dove le stringhe diventeranno 2^1Gb quindi incomprimibili.

Diciamo che l'unico modo per avere un programma C1 che comprime tutte le
stringhe esistenti di 1Gb e' quello di non usarlo!

> Mi ricorda tanto
> God wrote pkunzip universe.zip
>

> Dove, ovviamente, universe.zip č un file di 100 byte...
>

Puo' darsi

Ciao , Denis.

visert

unread,
Mar 15, 2004, 5:20:41 AM3/15/04
to
"biscia" <x...@aa.bb> wrote in message news:<oBm3c.20513$z23.9...@news3.tin.it>...

non capisco..."particolare" cosa intendi? Che c'entra con la discussione?
Ciao...

Vincenzo

unread,
Mar 16, 2004, 7:02:11 AM3/16/04
to
MARco Munari 16468.25548 wrote:

>
> Essenzialmente gli algoritmi di compressione (lossless)
> non comprimono tutto, ma solo le combinazioni piu` probabili,
> *espandono* invece inevitabilmente un po' le meno probabili; chi
> non sa questo e` perche` nel cosiddetto approfondimento cognitivo
> dei cosiddetti "algoritmi di compressione" si e` fermato al nome.
> Per evitare errori dell'intuito superficiale, io proporrei
> il cambiamento del nome di questi algoritmi in "algoritmi di
> mappatura delle probabilita` dell'input".

Sono perfettamente d' accordo.
Io chiamerei la compressione lossless semplicemente "cambiamento del
codice" o "ricodifica efficiente dell' informazione". Quella lossy
"eliminazione dell' informazione non importante".

La compressione oltre il cosidetto limite di Shannon è diventato l'
equivalente informatico della quadratura del cerchio o del moto
perpetuo: ogni volta che la scienza dichiara qualcosa impossibile c'è
sempre qualche crackpot che afferma di aver trovato la soluzione.
Nel caso della compressione qualche anno fa c' era persino una azienda
americana (la zeosync) che dichiarava di aver raggiunto risultati
strabibilianti, ho controllato ora e non hanno più nemmeno l' homepage....

biscia

unread,
Mar 19, 2004, 12:18:36 PM3/19/04
to

"visert" <vis...@yahoo.it> ha scritto nel messaggio
news:29b97c72.04031...@posting.google.com...
i titoli di questo prof che ha una visione particolare della teoria
dell'informazione

biscia

unread,
Mar 19, 2004, 2:16:13 PM3/19/04
to

> Sono perfettamente d' accordo.
> Io chiamerei la compressione lossless semplicemente "cambiamento del
> codice" o "ricodifica efficiente dell' informazione".

non cè bisogno di inventare, si chiama codifica di sorgente.

Usenet MARco 16475.50054

unread,
Mar 20, 2004, 1:11:04 AM3/20/04
to
~\/~ "biscia" == biscia <mr_...@aliceadsl.it> writes:

+ Vincenzo wrote:
> > Sono perfettamente d' accordo.
> > Io chiamerei la compressione lossless semplicemente
> > "cambiamento del codice"
> > o "ricodifica efficiente dell' informazione".

biscia> non cè bisogno di inventare, si chiama codifica di sorgente.

Le suggerirei di astenersi da considerazioni sull'"inventare",
lei e` quello che ha portato la questione (seppur con incerta diffidenza),
ha dato il titolo al thread quindi lei e` il primo a non chiamare
quegli algoritmi con un buon nome.
Inoltre il nome indicato ora non fa alcun riferimento alla
probabilita`/frequenza (necessaria al fine di una
compressione mediamente probabile) quindi non disincentiva
baggianate sui cosiddetti "algoritmi di compressione".
Probabilmente non avra piu` risposte da me.


Comunque mi ha dato l'occasione per dire che intendo rispomdere
a Vincenzo su un confronto con il diverso approccio teorico di Shannon,
quando avro` piu` tempo, chiederei di farmi delle domande se qualcosa
non e` chiaro.

In riferimento al post raggiungibile con
http://groups.google.com/groups?selm=ywmfzcb...@fast.mm.homeunix.org

essenzialmente io ho distinto il caso di n finito (shannon no),
in cui ho potuto formulare e numerare in modo non approssimato
tutti i possiibili algoritmi a massima compressione teorica
(e formalmente per qualsiasi base numerale anche distinta tra
input e output, cosa rilevante perche` non necessariamente
l'output deve essere memorizzato con modello fisico a base 2),
spostandosi a base 2 il limite di miglior compressione media dovrebbe
essere coincidente, con la differenza che il mio prevede la casistica
non approssimata ai reali, con n finito.

Ho poi anche un dubbio sulla non considerata parallelizzazione
della trasmissione di informazione nel caso del limite di dati
trasmissibili nell'unita` di tempo (e` facile chiamare disturbo
(noise) del segnale quello che ha natura imprecisata su una portante
in frequenza che in realita` non e` necessariamente su scala
unidimensionale)
(v. http://lanl.arxiv.org/ps/quant-ph/0207121, che io tradurrei
in "la teoria quantica serve per spiegare, non per inventare")

Naturalmente i principi di entropia sono validi nel contesto in cui
sono formalizzati, non dico che Shannon sbaglia.

(C)Copyright by Marco Munari mar i.am


All tbe best,
MARco http://mar.i.am#guestbook.html#isi16475.50054

K_

unread,
Mar 20, 2004, 1:47:45 PM3/20/04
to
biscia wrote:
> cosa pensate della tesi di enzo criscione, professore di informatica 4
> all'università di macerata, che sostiene di avere creato un algoritmo di
> compressione non lossy che comprime ad ogni iterazione

Prendo tre CD diversi, faccio al più tante iterazioni quanti i bit
contenuti in un CD. Visto che ogni volta riduco, alla fine mi ritrovo
con un bit che può essere 1 o 0. Quindi l'immagine compressa di almeno 2
CD è uguale, per cui essendo non lossy l'algoritmo, anche la loro
decompressione e uguale contraddicendo l'ipotesi di 3 CD diversi.

Fino a prova contraria 3 CD diversi esistono. ;)

> e permette di
> comprimere un cd in pochissimi byte...

Come sopra, poniamo lo comprima in 1000 byte.

Allora al mondo esistono 2^1000 possibili CD (basta creare tutte le
possibili permutazioni di bit di 1000 byte e scomprimerle)

Bene, scommettiamo che riesco a scrivere un programma di due righe che
genera almeno 2^(640*1024*1024*8) CD distinti?


Probabilmente Kolmogorov si sta rivoltando nella tomba!

Antonello

unread,
Mar 20, 2004, 3:06:20 PM3/20/04
to
Crescione non e' l'unico ad aver quasi realizzato un algoritmo del genere.

Io ci lavoro su da qualche anno e mi ritrovo +- con la sua stessa
intuizione, risultati incoraggianti ( 5% - 10% in meno sui bz2 ed i rar
ovviamente al massimo della loro compressione. ) ma con un approccio alla
risoluzione diverso.

Un suggerimento.... per capire come sia possibile un simile algoritmo
bisogna pensare in maniera differente dalla massa.

Ad es. se tutti gli algoritmi di compressione usano la probabilitą ed il suo
calcolo,... voi cominciate a pensare a qualcosa di deterministico che
sfrutti il calcolo combinatorio. :) e forse lo intravedete anche voi.

ultimo aiutino ---> n! < n^n => ln( n! ) / ln( 2 ) < ln( n^n ) / ln( 2 )

..... meditate .....

biscia

unread,
Mar 24, 2004, 6:46:58 AM3/24/04
to

"Antonello" <antonello....@planio.it> ha scritto nel messaggio
news:0v17c.96871$O31.4...@news4.tin.it...

> Crescione non e' l'unico ad aver quasi realizzato un algoritmo del genere.
>

> Io ci lavoro su da qualche anno e mi ritrovo +- con la sua stessa
> intuizione, risultati incoraggianti ( 5% - 10% in meno sui bz2 ed i rar
> ovviamente al massimo della loro compressione. ) ma con un approccio alla
> risoluzione diverso.
>

quindi con risultati credibili, senza annunci poco verosimili.

> Un suggerimento.... per capire come sia possibile un simile algoritmo
> bisogna pensare in maniera differente dalla massa.
>

cosa comune agli inovatori, in bocca al lupo.

biscia

unread,
Mar 24, 2004, 6:46:58 AM3/24/04
to

"K_" <nos...@nospam.org> ha scritto nel messaggio
news:ll07c.78958$z23.3...@news3.tin.it...

> biscia wrote:
> > cosa pensate della tesi di enzo criscione, professore di informatica 4
> > all'università di macerata, che sostiene di avere creato un algoritmo di
> > compressione non lossy che comprime ad ogni iterazione
>
> Prendo tre CD diversi, faccio al più tante iterazioni quanti i bit
> contenuti in un CD. Visto che ogni volta riduco, alla fine mi ritrovo
> con un bit che può essere 1 o 0. Quindi l'immagine compressa di almeno 2
> CD è uguale, per cui essendo non lossy l'algoritmo, anche la loro
> decompressione e uguale contraddicendo l'ipotesi di 3 CD diversi.
>
> Fino a prova contraria 3 CD diversi esistono. ;)
>

bellissimo! la dimostrazione per assurdo più elegante che abbia mai visto.
Complimenti!

biscia

unread,
Mar 24, 2004, 6:46:56 AM3/24/04
to

"Usenet MARco 16475.50054" <N0SP...@i.amRemove.invalid> ha scritto nel
messaggio news:ywmr7vo...@fast.mm.homeunix.org...

> ~\/~ "biscia" == biscia <mr_...@aliceadsl.it> writes:
>
> + Vincenzo wrote:
> > > Sono perfettamente d' accordo.
> > > Io chiamerei la compressione lossless semplicemente
> > > "cambiamento del codice"
> > > o "ricodifica efficiente dell' informazione".
>
> biscia> non cè bisogno di inventare, si chiama codifica di sorgente.
>
> Le suggerirei di astenersi da considerazioni sull'"inventare",
> lei e` quello che ha portato la questione (seppur con incerta diffidenza),
> ha dato il titolo al thread quindi lei e` il primo a non chiamare
> quegli algoritmi con un buon nome.
>
non riconosce un nome comunemente utilizzato in letteratura ?

Antonello Costantino

unread,
Apr 4, 2004, 4:58:06 AM4/4/04
to

"biscia" <mr_...@aliceadsl.it> ha scritto nel messaggio
news:Sye8c.117117$O31.5...@news4.tin.it...

>
> "Antonello" <antonello....@planio.it> ha scritto nel messaggio
> news:0v17c.96871$O31.4...@news4.tin.it...
> > Crescione non e' l'unico ad aver quasi realizzato un algoritmo del
genere.
> >
>
> > Io ci lavoro su da qualche anno e mi ritrovo +- con la sua stessa
> > intuizione, risultati incoraggianti ( 5% - 10% in meno sui bz2 ed i rar
> > ovviamente al massimo della loro compressione. ) ma con un approccio
alla
> > risoluzione diverso.
> >
>
> quindi con risultati credibili, senza annunci poco verosimili.
>
> > Un suggerimento.... per capire come sia possibile un simile algoritmo
> > bisogna pensare in maniera differente dalla massa.
> >
>
> cosa comune agli inovatori, in bocca al lupo.

p.s. dato che come lo finisco lo pubblico OPEN SOURCE sotto GPL ... se
qualcuno se la cava con il calcolo combinatorio e non ha problemi a
condividere quello che sviluppa la porta e' aperta.


>
> > Ad es. se tutti gli algoritmi di compressione usano la probabilità ed il

Usenet MARco 16496.43090

unread,
Apr 4, 2004, 10:34:04 PM4/4/04
to
~\/~ "Antonello" == Antonello Costantino <antonello....@tin.it> writes:

Antonello> "biscia" <mr_...@aliceadsl.it> ha scritto nel messaggio
Antonello> news:Sye8c.117117$O31.5...@news4.tin.it...
biscia> >
biscia> > "Antonello" <antonello....@planio.it>
biscia> > ha scritto nel messaggio
biscia> > news:0v17c.96871$O31.4...@news4.tin.it...

NB: il post di Antonello si colloca secondo la cronologia:
http://groups.google.com/groups?hl=en&lr=&ie=UTF-8&frame=right&th=7e41c90260818096&seekm=Sye8c.117117%24O31.5077361%40news4.tin.it#link11

Antonello> > > Crescione non e' l'unico ad aver quasi realizzato un
Antonello> > > algoritmo del genere.

Antonello> >
Antonello> > > Io ci lavoro su da qualche anno e mi ritrovo +- con la
Antonello> > > sua stessa intuizione, risultati incoraggianti ( 5% -
Antonello> > > 10% in meno sui bz2 ed i rar ovviamente al massimo
Antonello> > > della loro compressione. ) ma con un approccio alla
Antonello> > > risoluzione diverso.
Antonello> > >
biscia> >
biscia> > quindi con risultati credibili, senza annunci poco verosimili.
biscia> >

ma voi due vi siete messi d'accordo?

Antonello> > > Un suggerimento.... per capire come sia possibile un
Antonello> > > simile algoritmo bisogna pensare in maniera differente
Antonello> > > dalla massa.
Antonello> > >
biscia> >
biscia> > cosa comune agli inovatori, in bocca al lupo.

Antonello> > > Ad es. se tutti gli algoritmi di compressione usano la
Antonello> > > probabilità ed il suo calcolo,... voi cominciate a
Antonello> > > pensare a qualcosa di deterministico che sfrutti il
Antonello> > > calcolo combinatorio. :) e forse lo intravedete anche voi.
Antonello> > >
Antonello> > > ultimo aiutino
Antonello> > > ---> n! < n^n => ln( n! ) / ln( 2 ) < ln( n^n ) / ln( 2 )
Antonello> > >
Antonello> > > ..... meditate .....

Antonello> p.s. dato che
Antonello> come lo finisco lo pubblico OPEN SOURCE sotto GPL ...

Antonello> se qualcuno se la cava con il calcolo combinatorio e non ha
Antonello> problemi a condividere quello che sviluppa la porta e'
Antonello> aperta.


Antonello, lei ha un problema, anzi e` un problema (per non usare
altri sostantivi):

non e` _molto_ preparato, e fin qui niente di male, ma purtroppo
si e` lasciato sopraffare da disonesta` intellettuale, e nel campo
dell'innovazione delle idee e` la peggior cosa. Cio` e` evidente verso l'alto.

Non creda di imbrogliare chi sa qualche ordine di grandezza piu` di lei,
il suo primo post era un insulto all'intelligenza (io avevo preferito
sorvolare), ma il suo secondo lo conferma.

Cerchi di avere maggiore onesta` intellettuale.


Se attinge quello che capisce da idee di altri dotati di una chiara
visione di insieme tale che nemmeno puo` immaginare, spacciando di
aver realizato qualcosa che la incoraggia a proseguire dopo un lavoro
di "due anni",

non cerchi poi il loro aiuto, che fa brutta figura.


Mi dispiace ma personaggi come Antonello e Crescione sono dannosi,
altro che innovativi.

Antonello in particolare inoltre sembra aver preso confusamente
l'uso dell'approccio combinatorio dal mio post perche` ha premuto "Rispondi"
immediatamente dopo aver letto il mio post che lo conteneva con informazioni
di copyright, ignorando pero` perfino totalmente di far riferimento al
mio contenuto e allacciandosi invece a Crescione. I risultati poi si vedono.

Saluti,
MARco

Antonello Costantino

unread,
Apr 7, 2004, 5:40:34 PM4/7/04
to

NO.

>
> Antonello> > > Un suggerimento.... per capire come sia possibile un
> Antonello> > > simile algoritmo bisogna pensare in maniera differente
> Antonello> > > dalla massa.
> Antonello> > >
> biscia> >
> biscia> > cosa comune agli inovatori, in bocca al lupo.
>
> Antonello> > > Ad es. se tutti gli algoritmi di compressione usano la
> Antonello> > > probabilità ed il suo calcolo,... voi cominciate a
> Antonello> > > pensare a qualcosa di deterministico che sfrutti il
> Antonello> > > calcolo combinatorio. :) e forse lo intravedete anche voi.
> Antonello> > >
> Antonello> > > ultimo aiutino
> Antonello> > > ---> n! < n^n => ln( n! ) / ln( 2 ) < ln( n^n ) / ln( 2 )
> Antonello> > >
> Antonello> > > ..... meditate .....
>
> Antonello> p.s. dato che
> Antonello> come lo finisco lo pubblico OPEN SOURCE sotto GPL ...
>
> Antonello> se qualcuno se la cava con il calcolo combinatorio e non ha
> Antonello> problemi a condividere quello che sviluppa la porta e'
> Antonello> aperta.
>
>
> Antonello, lei ha un problema, anzi e` un problema (per non usare
> altri sostantivi):

sara' vero ma chi offende e' lei!

>
> non e` _molto_ preparato, e fin qui niente di male, ma purtroppo
> si e` lasciato sopraffare da disonesta` intellettuale, e nel campo

Quale disonestà ?

> dell'innovazione delle idee e` la peggior cosa. Cio` e` evidente verso
l'alto.

?

>
> Non creda di imbrogliare chi sa qualche ordine di grandezza piu` di lei,

Ci siamo mai conosciuti per poterlo affermare con tanta leggerezza?

> il suo primo post era un insulto all'intelligenza (io avevo preferito

Insulto in cosa? nell'affermare i risultati di un algoritmo di compressione
sperimentale?

> sorvolare), ma il suo secondo lo conferma.
>
> Cerchi di avere maggiore onesta` intellettuale.
>
>
> Se attinge quello che capisce da idee di altri dotati di una chiara

Bene, bene quindi avrei carpito idee da qualche onniscente. CHI ? lei ?

> visione di insieme tale che nemmeno puo` immaginare, spacciando di

non spaccio, affermo, ed affermo di aver ottenuto risultati che se pur poco
sono sempre incoraggianti,
non parole ... fatti!

> aver realizato qualcosa che la incoraggia a proseguire dopo un lavoro
> di "due anni",

qulcuno in piu' 10 per l'esattezza. :)

>
> non cerchi poi il loro aiuto, che fa brutta figura.

legga meglio quello che ho scritto, OPEN SOURCE e "la porta e' aperta" non
vogliono dire aiutatemi ma
piuttosto che metto a disposizione quello che ho fatto a patto che chi lo
modificha deve renderlo disponibile per TUTTI.
non mi sembra una ricerca di aiuto e mi spiace ma non vi e' nulla di cui
vergognarsi in questo ma
magari nell'offendere come fa' lei forse sarebbe il caso?

di sicuro non cerco liti aride e sterili con chi non ha altro da fare che
appagate
il proprio egocentrismo sputando sentenze su gente che non conosce e che a
differenza sua
non usano pseudonimi ed email anonime.
certo pero' che l'anonimato e' una gran cosa vero?
io posto con nome e cognome e lei ?
fatti non parole! chi è ? cosa hai mai fatto ?...
Crescione vuole o non vuole e' andato in TV e qualcosa di nuovo deve aver
pur scoperto. FATTO!

>
>
> Mi dispiace ma personaggi come Antonello e Crescione sono dannosi,
> altro che innovativi.

Il terrorismo psicologico suo invece fa' del bene immagino.

>
> Antonello in particolare inoltre sembra aver preso confusamente
> l'uso dell'approccio combinatorio dal mio post perche` ha premuto
"Rispondi"

l'egocentrismo e' un diffetto!

> immediatamente dopo aver letto il mio post che lo conteneva con
informazioni

mai letto niente di suo. puo' crederci o meno. anche perche'
non ho mai letto niente di questo ng finquando un collega
non mi ha segnalato il messaggio iniziale del tread.

> di copyright, ignorando pero` perfino totalmente di far riferimento al
> mio contenuto e allacciandosi invece a Crescione. I risultati poi si
vedono.

ma cosa dice, vuol farmi credere che una disequazione da liceo e' stata
brevettata?
ed io che non lo sapevo e che adesso passero' dei guai ad aver infranto un
copyright?
e sarei io quello che ha i problemi ed e' un problema facendo anche del
male agli altri.
mi tolga una curiosità quanti altri ne ha ( di copyright ) ?

comunque solo per precisare la formula che ho inserito non e' che lo spunto
da cui io sono partito molti anni fa,
dopo averla letta in un articolo che riguardava guardacaso gli algoritmi di
compressione
su un MC microComputer del 1992, MOLTO prima che un teorico semidio ( nel
senso
che non si sa' ancora chi e', ma soprattuto cosa avra' mai fatto? ) lo
postasse su un ng.

>
> Saluti,
> MARco
> --
> x(t),y(t) = th(3t-34.5)*e^[-(3t-34.5)^2]/2-4.3+e^(-1.8/t^2)/(.8*atg(t-
> 3)+2)(t-1.8)-.3th(5t-42.5),(1.4e^[-(3t-34.5)^2]+1-sgn[|t-8.5|-.5]*1.5*
> |sin(pi*t)|^[2e^(-(t-11.5)^2)+.5+e^(-(.6t-3.3)^2)])/(.5+t)+1 ; 0<t<14

Quale e' l'obbiettivo di volersi firmare con una formula,
servono fatti reali come il suo vero NOME e COGNOME !

biscia

unread,
Apr 9, 2004, 6:28:43 AM4/9/04
to
> > Saluti,
> > MARco
> > --
> > x(t),y(t) = th(3t-34.5)*e^[-(3t-34.5)^2]/2-4.3+e^(-1.8/t^2)/(.8*atg(t-
> > 3)+2)(t-1.8)-.3th(5t-42.5),(1.4e^[-(3t-34.5)^2]+1-sgn[|t-8.5|-.5]*1.5*
> > |sin(pi*t)|^[2e^(-(t-11.5)^2)+.5+e^(-(.6t-3.3)^2)])/(.5+t)+1 ; 0<t<14

non se la prenda, solo una curiosità, che funzione è th(x) ? intende
tangente iperbolica ??

Usenet MARco 16505.49511

unread,
Apr 11, 2004, 7:15:56 PM4/11/04
to
~\/~ "biscia" == biscia <bis...@tana.it> writes:

biscia> non se la prenda, solo una curiosità,

biscia> che funzione è th(x) ? intende tangente iperbolica ??

Avevo prospettato che probabilmente avrei evitato di rispondere a costui,
ma in tre righe vedo progressi (tranne l'anonimato, se non sbaglio),
rispondo nell'universale augurio di onesta` sincerita` pace e bene,
anche volentieri:

si`: th = tanh = tgh = tangh = (exp(x)-exp(-x))/(exp(x)+exp(-x)),
si puo` scrivere in tanti modi, ho usato il piu` sintetico
anche se non e` molto usato...
Poi atg e` maggiormente chiamato atan o arctan, sgn e` sign (segno).
Il resto si dovrebbe capire (moltiplicazione sottointesa, .n = 0.n,
e^x = exp(x), |x|=abs(x), l'uso di parentesi quadre e tonde e` solo
per facilitare un po' la lettura)


La mia signature e` semplicemente la mia signature (nel vero senso
della parola).

A volte dico che l'interpolazione funzionale e` una semplice
applicazione del reverse engineering, anche di cui sono grande mastro.


Saluti,
MARco
--
http://mar.i.am/~u16505.49511/it.scienza.informatica,signature,it

biscia

unread,
Apr 15, 2004, 11:38:44 AM4/15/04
to

>
> si`: th = tanh = tgh = tangh = (exp(x)-exp(-x))/(exp(x)+exp(-x)),
> si puo` scrivere in tanti modi, ho usato il piu` sintetico
> anche se non e` molto usato...

il resto era perfettamente comprensibile, mi stupiva solo quel th.(ps. in
certi ambienti di arriva ad un esotico HTAN )

magic

unread,
Apr 22, 2004, 9:46:11 AM4/22/04
to
On Sun, 11 Apr 2004 23:15:56 GMT, Usenet MARco 16505.49511 wrote:

> La mia signature e` semplicemente la mia signature (nel vero senso
> della parola).

se si disegna quell'equazione parametrica viene fuori la sua firma?

> A volte dico che l'interpolazione funzionale e` una semplice
> applicazione del reverse engineering, anche di cui sono grande mastro.

mi può dare qualche riferimento

grazie
--
o _ _ _
_o /\_ _ \\o (_)\__/o (_)
_< \_ _>(_) (_)/<_ \_| \ _|/' \/
(_)>(_) (_) (_) (_) (_)' _\o_
----------- http://magicforum.altervista.org ----------

0 new messages