BandaAncha.eu

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 👇 este 📰 artículo ⏎
  • 🔍 en 💬 foros ⏎
Regístrate Regístrate Identifícate Identifícate
  • 📰 Artículos

ZeoSync Corp. desarrolla una tecnologia de compresion revolucionaria, ¿o no?

ruido

ZeoSync Corp es una compañia de los EEUU que hace unos dias anuncio haber desarrollado una tecnologia de compresion de datos revolucionaria. Dicha tecnologia de compresion permitiria reducir el tamaño de un archivo a su centesima parte sin perdidas de datos, es decir... ¡un archivo de 100 Mb pasaria a ocupar solo 1 Mb!

La tecnologia, 'presunta' tecnologia en mi opinion, recibe el nombre de Relational Differenciation Encoding (RDE) y al parecer, pese a que no se ha realizado ninguna demostracion publica, la compañia ya ha solicitado dos patentes para protegerla previa a su comercializacion en este mismo año 2003. El desarrollo ha sido llevado a cabo por un grupo interdisciplinar de matematicos y programadores adscritos a diferentes universidades de Estados Unidos.

No se a vosotros.. yo es que soy un esceptico por naturaleza, pero no creo que esto sea tan cierto como lo pintan. De todas formas aqui queda, si es cierto es una gran noticia, si es un bulo...

Mas info: Web de ZeoSync backseatdriver.com/clients/zeosync/

¿Vaporware como el XWebs? Ya confirman en los comentarios que sí ;)

💬 Comentarios

BocaDePez
BocaDePez

Pues como siempre, hasta que no lo vea... no me lo voy a creer :)

ossium

Oye, si es un txt lleno de espacios en blanco seguro q ocupa un mega comprimido :)

🗨️ 3
BocaDePez
BocaDePez

Os lo juro, echadle un vistazo si no me creéis.

Chao.

🗨️ 2
BocaDePez
BocaDePez

jejeje

BocaDePez
BocaDePez

jeje el tipico, seguro q parece q funciona, q comprime y descomprime, eso si, no borres el original sin comprimir q entonces......, es muy viejo eso

BocaDePez
BocaDePez

siendo matematicos pertenecientes a facultades...... q estos tios estan muy rallaos y son capaces de estas movidas seguro.

🗨️ 1
BocaDePez
BocaDePez

Zeosync simplemente mintió.

Más información aquí:

(link roto)

Adeu.

edurne

Digo que lo del XWEBS se veía a la milla que era un bulo. ¿Que viajen siete bits donde antes solo viajaba uno? Muy txungo me parece conseguirlo si no es a costa de reinventar de arriba abajo toda la infraestructura de internet.

Sin embargo lo de los algoritmos de compresión me parece más posible. Máxime teniendo en cuenta que estos bitxos cada vez hacen más cálculos y más deprisa (con "bitxos" me refiero a los ordenadores, no a los matemáticos que han diseñado el algoritmo :P)

Hasta donde yo sé, los algoritmos de compresión se basan todos en eliminar redundancias. Aunque si se puede sacrificar la forma original de los datos en aras de conseguir un mejor ratio (los codecs de compresión de video que tanto nos gustan XDD), entonces es diferente.

Microsoft implementaba el algoritmo RLE en sus BMPs, un algoritmo tan sencillo y tan cutre que parece casi estúpido (si lo copia Billy, no puede ser de otra forma). Luego Compuserve patentó el algoritmo de compresión de los GIFs, de forma que había que pagar plata para hacer un prog. que soportara eso...

Yo creo q los q más controlan de compresión ahora mismo son el grupo JPEG y MPEG, que son los q se parten los cuernos para que Internet no sea ese infierno que podría haber sido.

Ahora salen estos y dicen que comprimen 100:1 sin perdida de información... pues me lo creo, ¿sabéis por qué?

Porque lo primero q han hecho ha sido patentarlo, antes de mostrarlo a los demás. Si les preocupa tanto la plata será por algo. De todas formas el ratio de compresión no es lo único... ¿y si para comprimir 1 Mb hace falta 1 hora en un Pentium IV?

Además, con un ordenador suficientemente potente, yo opino que podría superarse el esquema tradicional de "eliminar redundancias".

De entrada 14142135623730950488016887242097 se puede comprimir como "SQRT(2)". No me extiendo más porque el tema me interesa y joden mucho los posts de 30 Gb.

🗨️ 8
BocaDePez
BocaDePez

Es falso todo:

Information Request
ZeoSyncCorporation - 310 Evernia St.
West Palm Beach - Florida - 33401
Telephone: 561.640.8464
Info@ZeoSync.Com

Nombres inventado de supuestos profesores (¿?), la direccion es falsa, el dominio a donde te mandan escribir no es mas que una pagina. La direccion es Falsa, una simple busqueda en infobel, o cualquier callejero de Florida asi lo demuestra. El telefono ya ni hablemos.

Looking up zeosync.com
Resolved zeosync.com to 208.255.210.55
Looking up 208.255.210.55
Resolved 208.255.210.55 to webnetsuccess.com

🗨️ 1
Chucky69

Pero la direccion no es falsa (la real). Y el dominio puede tener el q le salga de los huevos, no tendrán dinero para pagar un servidor...
mira en maporama.com

oestrymnio

Aunque tengas el ordenador más potente del mundo hay un límite infranqueable para la compresión de una determinada información (sin pérdida, claro,si pierdes parte de la info como JPEG,MPEG y demas pues claro que se puede) , viene impuesto por el teorema de Shannon, basado en la entropía de la información.
No importa la capacidad computacional que tengas o la memoria que tengas si esa información tiene una alta entropía no podrás comprimirla demasiado (siempre hablando de métodos sin pérdida).
Con pérdida puedes comprimirla todo lo que quieras hasta llegar a 0 (la pierdes todas pero está comprimido infinitamente)

🗨️ 4
edurne

no sabía que hubiera un límite matemático para la compresión; yo pensaba que dependía de lo "bueno" que fuera el algoritmo.

Lo digo porque yo pensaba que si tienes una secuencia de "N", de n digitos, se podría buscar una función matemática de forma que f(x)=N, truncando a las n primeras cifras. Por eso puse lo de SQRT(2).

Visto lo que habéis respondido, y visto también que este es un tema con el que hay un montón de gente pegándose, no me va a quedar más remedio que aceptar que lo que yo pensaba es un poco "infantil" jajaja.

Otra forma de desmontarlo sería pensando que si se pudiera comprimir así, también sería lícito comprimir el resultado de la compresión (compresión recursiva), de forma que al final con cuatro o cinco bits se podría comprimir el universo...

Esta vez me han engañao con el vaporware jejejee...

ParanoIDAndroID

No es tan sencillo. La entropía de una fuente de información crece de forma exponencial de forma que para una fuente con un nº elevado de símbolos se reduce el nº de bits necesarios para su codificación. Ej.: para el codigo ASCII, son 256 símbolos, si son equiprobables p(x)=3.90625E-03 y la entropia maxima de este conjunto es 8. De ahí el nº de bits necesarios para codificar 256 simbolos. De cualquier modo la entropía es una medida de la información asociada a la fuente pero no da información de la distribución de los símbolos en un mensaje, ni del mensaje en sí, etc... Por tanto no es posible determinar, para un mensaje arbitrario, el fator de compresión alcanzable.

Como ejemplo de todo este follón supongase que tenemos un archivo con 1000 secuencias del codigo ASCII completamente ordenadas. Podría tomarse la primera secuencia como el patrón 1 y el archivo se podria codificar como la primera secuencia precedida de un 0 y 999 grupos de 11 que representarían repeticiones del patrón 1. Con esto se alcanza una compresión del 0.0088...% Y esto no guarda ninguna relación con la entropía!

Espero que se haya entendido algo...

UN SALUDO.

🗨️ 1
BocaDePez
BocaDePez

Hola he leido todos los post el tema esta interesante aunque no se puede creer claro esta, yo queria comentar una cosa, y si es posible ya que tu sabes del tema a ver si es probable que hagan esto, al igual que se puede hacer una serie de numeros para checkear un archivo como el MD5 por ejemplo, hoy dia lo facil es crearlo y comprobarlo ok?

Lo que se me ocurrio es y claro y no es probable de alguna forma mas compleja pero no creo que imposible no se pero a ver si tiene su logica.. que a partir de esa formula MD5 que hace el resumen del archivo paso por paso genere el archivo, mas o menos no es que sea exactamente igual pero la idea seria la misma... al igual que los 64 KB tan famosos, aparentemente parece que esta comprimido pero yo pienso que realmente no lo es sino que es un programa curado y lo que tiene son comandos hacia la targeta grafica y la targeta los traduce, y los genera pero realmente no existe.... esa es la idea que se me ocurrio lo mismo pero para lo de la compresion aunque suene a rollo pero seria posible algo asi? a lo mejor con un pentium XXXVIII NO? ajajaj espero respuesta saludos!

BocaDePez
BocaDePez

Teoremas, teoremas... ¿Y quién nos dice que la teoría de la información con la que trabajamos hoy día no pueda ser superada? La ciencia nunca para, y siempre hay un teorema dispuesto a cargarse a otro. Sino, estaríamos hablando de axiomas.

Dejemos que lo patenten y que hagan las demostraciones, y luego ya hablamos de si es el invento del siglo o un pufo.

BocaDePez
BocaDePez

Pues tienes razon, es todo cuestion de tiempo, es decir, del tiempo que se toma el compresor en elaborar las tablas y el tamaño de estas. En el caso del GIF estan limitadas esta claro, y en el caso del resto de compresores "rapidos" (rar, ace, zip, etc) tambien. Pero hace años habia un compresor cojonudo que se llamaba quantum que hasta donde yo le he seguido la pista llegaba a la version 0.96, era de una compañia llamada cinematronics, o cinetronics o algo asi. Hasta donde lo use, tenia un pentium 133, y para comprimir 10 Megas se podia tirar 2 o 3 horas tranquilamente, pero siempre le sacaba un buen cacho a cualquier otro compresor, y un buen cacho quiere decir, un buen cacho, es decir, un trozo respetable para aquellos tiempos, no las diferencias estupidas entre cabeceras de archivo etc. Seguramente habra mas compresores de este tipo. En este, el unico limite que tenias era el tiempo y la memoria (rulaba bajo dos). Sobre lo de comprimir 100:1 ....... pues hombre, me parece bastante, bastante exagerao cuando actualmente ni algoritmos con perdida de calidad dan esas relaciones... pero no voy a ser yo el que diga que no cuando se seguro que un dia cualquiera sera verdad :-)

UnMateria

Porculeo

No me creo nada. Esto debe ser tan revolucionario como el "IT", q luego se vio q era una mierda revolucionaria y cara como minivehiculo.

Yo voy a intentar patentar los cd´s de sabores, pero... se podra hacer??. Si algo aprendes con el tiempo es que... no existe la magia. Ademas sin una demostracion ni nada. Aunque no deja de ser interesante la noticia.

Chaito

BocaDePez
BocaDePez

Mirad aquí (Marzo de 2002)

(link roto)

Ciao.

Baudelaire

Es la misma noticia que corrio el año pasado casi por la misma fecha.

"Radical System "y "Forrester" ya advirtieron que era un bulo

La misma revista que el año pasado vuelve a traer la noticia como una primicia.

La del año pasado:

->(link roto)

La de este año:

->(link roto)

🗨️ 1
Baudelaire

Las dos noticias son del 2002...

"Cachi en la ma"!!

Polanko2k

Nose, a mi me kuesta creerlo, sin duda, pero kien sabe... Yo lo k no me creo es lo de la xaketa transparente... xD weno, ojala fuera verdad, no? os imaginais bajarse 2 cds de 6 megas?? (orgasmo cybernetico) WOW... jejeje pues nada a ver cmo evoluciona esto, un saludo

Galaxian

Suponiendo que fuese verdad, el ratio de compresión dependerá del contenido del archivo a comprimir.

Como prueba de fuego se le podría dar un archivo de texto con los dos primeros millones de decimales de PI (que no tiene ninguna secuencia conocida)... a ver que hacía con él (toma ya mala leche).

Por cierto, para el que vaya a responder que lo sustituiria por PI, que piense un poco lo que iba a costarle descubrirlo ;-)

Saludos

🗨️ 4
BocaDePez
BocaDePez

Bueno... yo creo que si que las hay; seguro que de esos dos millones de

decimales, todos los numeros estan en el rango 0..9, asi que se aplica una

compresión basada en codigos de huffman y seguro que algo comprimes.

La unica forma de no comprimir con ese metodo es que todos los simbolos

aparezcan con la misma frecuencia, pero si PI hace eso ya me rindo y

admito que lo inventaron los extraterrestres ;-)

🗨️ 3
BocaDePez
BocaDePez

Obtenemos un ratio de 25.6 a 1 quedándonos solo con 10 simbolos en lugar
de los 256 del código ASCII de 8 bits

🗨️ 2
BocaDePez
BocaDePez

mira que la respuesta de uno ya me a pareceido burra para que salgas tu y lo remates XDDD

si al fin y al cabo, toda la información que manejamos esta codificada en 0 y 1, con estas cifras en mano, podemos tener unos ratios de compresion acojonantes xD

BocaDePez
BocaDePez

256 => 8 bits

10 => 4 bits

con eso tienes un ratio de 2 a 1

BocaDePez
BocaDePez

Ni demostraciones ni ninguna explicacion en que se basa... bueno, puede ser verdad, ojala lo fuera. Pero aparte del ratio, como ya han comentado, que relacion de tiempo tiene?

Sin ir mas lejos, el UHA que se utilizo durante bastante tiempo en la scene, conseguia ratios muy altos de compresion pero tardaba lo suyo en descomprimir. Puede que no convenga usar un algoritmo asi.

BocaDePez
BocaDePez

No me entra en la cabeza que sea posible 100:1 sin perdida de informacion! que es lo más jodido. El que no me entre no quiere decir que no sea posible.. que ya sabemos que las sorpressas que nos da la vida...

Si fuese esto cierto ganarían un paston, y acabarías implementando el algoritmo hasta en las tazas de cafe... ya te digo...

Haria el micro-procesador y lo pondrían en los satelites, en las lavadoras, yo lo pondria en mi red inalambrica, ....la caña....

Perdon se me fue la chola...

SaludoS

AiNuRzZz

BocaDePez
BocaDePez

Hay ke saber ke komprimen. Yo normalmente comprimo un giga en un diskete de 1,44 megas.

Admito apuestas....

🗨️ 1
BocaDePez
BocaDePez

Todos nos sabemos el truco ese de los espacios en blanco.

BocaDePez
BocaDePez

Si esto ocurre me quito AdSl y me vuelvo a los 56k+tarifa plana XDDDDDDD

Mistico

Hace 10 años nadie pensaría que en un CD se pudiesen almacenar 13 horas de música, eso es como lo de meter el contenido de una botella de 5 litros en una de 3. Cuando salio el MPEG-1, nadie pensaba en cosas como el DivX.

No digo ni que sea verdad ni mentira, pero tengo un ejemplo de compresion que supera con creces el 100:1

Bajaos este programita (64 kb)

Si al ejecutarlo creeis que hay trampa, desenchufaos de internet, os va a dar igual. En los créditos viene el ratio de compresión y eso si que quita el hipo. El que no se fie que le pase un antivirus.

Por cierto, esa demo ya está obsoleta, actualmente hay cosas incluso mejores, aunque con menos de una TNT2 sugeriría que nadie la probase :D Si se os queda curiosidad, mirais su web.

🗨️ 3
Bocapez

No se trata exactamente de comprimir algo sino de realizarlo dentro de un limite de tamaño ya establecido, 64kb. Ademas, el secreto esta en que todo es generado dinamicamente, 3d, mod synth. Si te fijas la calidad de las texturas utilizadas es bastante baja. De todas formas esta bastante xulo :)

🗨️ 1
BocaDePez
BocaDePez

no entiendo lo que quieres decir con mod. Un mod es algo que modifica algo existente, no? Que esta modificando aki?

Lo otro si puedo entender, las texturas seran de unos 5 kb o puede q menos y a veces se repiten con distinta tonalidad. Lo del 3d pense efectivamente en eso y la musica supongo q o es un midi o usa unos cuantos samples y los mezcla en el momento (es bastante parecida toda la sintonia). Y doy por hecho que el ejecutable ira comprimido.

Vamos, pero como bien dices, no solo es chulo sino ademas sorprendente.

BocaDePez
BocaDePez

lo que hay que ver XDDDDDDDDDDDDDDDDDDDDD joder, dinamicamente tambien te creo un archivo de 4 gigas lleno de bytes siguiendo el orden que me salga de los cojones y el programa me ocupa menos de 1 kb, pero que coño tiene que ver eso con la compresion? XDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD la mitad de las texturas para demos se hacen con fractales, los movimientos los realizamos rotando vertices y texturizando, y no guardando cada frame por separado como si fuera un avi; en sonido pues igual, un puto sampler, no guardando 88000x2 bytes por segundo... bueno, que coño, lo dicho, que eso no es compresion joer XDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD

Bocapez

Este hoax ya se comentó hace tiempo en otros sitios. Afirmaba que el algoritmo de compresión conseguía ratios de 100:1 SIN PÉRDIDA, en cualquier archivo con datos 100% aleatorios.

Explicaré de forma muy simple lo de los datos aleatorios. Los algoritmos de compresión sin pérdida lo que hacen principalmente es deshacerse de información redundante, por ejemplo si tuviese un archivo de 1 Gb cuyo contenido es "bushgay" repitiendose constantemente, con almacenar en el archivo comprimido el numero de veces que esta cadena aparece sería suficiente para luego recuperarlo exactamente igual, y habría conseguido un ratio de compresión aparentemente asombroso. Por eso mismo cuando comprimimos documentos, textos, u otros archivos con redundancias se consigue ratios tan buenos y en el caso de archivos de audio o video no tan buenos.

"Si, si pero ¿y el divx y el mp3 que me comprimen las pelis y la musica un güevo?¿Y los Jpg?"

En ese caso estamos hablando de algoritmos de compresión CON PERDIDA. Se consiguen ratios de compresión tan buenos porque estos algoritmos lo que hacen es eliminar información que "no percibimos". Es decir, de un mp3 nunca se podria volver al archivo original al igual que de un divx al avi original. Por ejemplo, yo puedo estar escuchando una cancion y no notar perdida alguna pero luego a la hora de trabajar en un estudio de sonido me faltan muchas frecuencias y calidad del sonido o tengo una foto en jpeg de mis vacaciones en benidorm que se ve muy bien, pero a la hora de compararla con la original .tiff y trabajar con ella en photoshop se me queda una mierda.

Ale, ahora un ejercicio para casa; comprimidme esta cadena "2QáÅ9S1.C:7F#9562;ÄT8-H_M9KO$òþxM¬í#9556;P•{ã#9562;Ä" con la utilidad que mas os guste (winrar, winzip, winace, etc..) y decidme que ratios de compresión obteneis xD

🗨️ 2
BocaDePez
BocaDePez

el tema aquel fue mucho mas ganso XDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD eera un puto borrador con su undelete correspondiente, con lo cual te podias imaginar lo que duraba lo que hubieras "comprimido", no? XDDDDDDDDDDDDDDDDDDDDDDDDDDDD habia peña que pasaba incluso el ficherete que generaba con los sectores donde estaban los datos a disquete y luego tira, tira, a recuperarlos XDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDDD

🗨️ 1
BocaDePez
BocaDePez

Tu mensaje esta encriptado o que? No entiendo ni papa

trompa

Es como lo de lñas torres gemelas q decian q habia superado la ficcion, no meten en las peliculas la informacion q sea como si son 200 Gb en un disket? Nada, pues ya hemos superado a spilber

manyly

¿Nadie ha sentido curiosidad por bajarse el programilla?

Bueno, pues para investigar un poco descomprimí los archivos. Todos sin extension.

He probado a renombrar el archivo "lzip." a "lzip.jpg", este es el resultado:

Imagen original en http://galeon.com/kunafre/extern/lzip.jpg

Jajaja, a que mola?

vedaabierta

Generalmente cuando se habla de compresion sin perdida se da por hecho k nos basamos en eliminacion d redundancias y y k siempre vamos a tener k conservar parte d la informacion original.

Pero (esto es lo k todos considerareis una burrada aunque ya exista) si dotamos al programa compresor/descompresor con las secuencias mas comunes(claro esta k ellos sabran de k tamaños) la informacion podria quedar reducida a un bit sin ninguna perdida.

Por descontado queda decir el tamaño del programa.

Por cierto esa noticia fue lanzada para recopilar ideas d la gente k opina komo nosotros en los foros.

BocaDePez
BocaDePez

TODO ESTO ES CIERTO LO HE COMPROVADO CLARO ESTA QUE PARA COMRIMIR TARDAS MUCHO PERO LO HACE NO SEAN INGENUOS TODO ES POSIBLE