On 04/30/2013 09:28 AM, Gustavo Andres Angulo wrote:
> Hola, algunas t�cnicas para optimizar la cuesti�n es usar separar la
> presentaci�n de los
> datos, esto hace que puedas cargar tu template de una manera muy
> r�pida y luego puedes
> obtener los datos para renderizar el contenido via ajax, ahora esta
> informaci�n la puedes
> preprocesar y la mantienes en un cache, aproximadamente tengo una plataforma
> la cual tiene queries de 30 seg o m�s y de esta manera el tiempo
> muerto de espera
> de usuario se reduce a solo unos pocos segundos.
>
>
> espero que puedas encontrar una soluci�n.
>
> buen d�a.
>
> 2013/4/29 Juan Vargas A.K.A RootWeiller <
rootwe...@gmail.com>:
>> Saludos, tengo una BD que contiene unas 300 tablas y unos 2 millones de
>> registros, puedo acceder a ella de manera tradicional, el problema est� en
>> la velocidad que toma para leer los datos y renderizarlos al template
>>
>> �existe una forma de ganar velocidad en las consultas con Django?
>>
>> ejemplo en SQL crudo se tarda unos 19seg, cuando ejecuto con un queryset en
>> django se tarda el doble o m�s en mostrarme los datos en el template
>> "Si quieres que los dem�s te sigan, no tienes m�s que ir delante de ellos"
>> Alfonso Alc�ntara
>>
>> --
>> --
>> Ha recibido este mensaje porque est� suscrito a Grupo "Grupo de Usuarios del
>> Framework Django de habla hispana" de Grupos de Google.
>> Si quieres publicar en este grupo, env�a un mensaje de correo
>> electr�nico a
djan...@googlegroups.com
>> Para anular la suscripci�n a este grupo, env�e un mensaje a
>>
django-es-...@googlegroups.com
>> Para obtener m�s opciones, visita este grupo en
>>
http://groups.google.com.bo/group/django-es.
>> ---
>> Has recibido este mensaje porque est�s suscrito al grupo "Django-es" de
>> Grupos de Google.
>> Para anular la suscripci�n a este grupo y dejar de recibir sus correos
>> electr�nicos, env�a un correo electr�nico a
>>
django-es+...@googlegroups.com.
>> Para obtener m�s opciones, visita
https://groups.google.com/groups/opt_out.
>>
>>
No tengo experiencia en mysql pero de seguro debes optimizar esas tablas
primero, 2 millones realmente no es mucho, tengo un sistema en django
que consulta una tabla de aprox 200 millones de registros en una base de
datos postgres y tarda menos de un segundo, obviamente hay indices e
inclusive la tabla tiene varias particiones, creo que deberias tambien
explotar mas a la base, si dices q la base esta echa un desastre intenta
arreglarla que temprano que tarde te tocara hacerlo, o migrala a
postgres :) qu le encanta manejar millones de datos.
Saludos.