Ir al contenido principal

Optimiza tu Código en Python con functools.lru_cache

 


El mundo de la programación está lleno de trucos y herramientas que pueden ayudarte a optimizar tu código y mejorar su rendimiento. Uno de estos trucos menos conocidos pero extremadamente útiles en Python es el uso del decorador functools.lru_cache. En este artículo, exploraremos cómo usar lru_cache para optimizar funciones costosas y repetitivas, y cómo puede beneficiar tu proyecto.

¿Qué es functools.lru_cache?

functools.lru_cache es un decorador en Python que almacena en caché (cache) los resultados de las llamadas a funciones. Esto significa que cuando una función decorada con lru_cache se llama con los mismos argumentos, el resultado se recupera de la caché en lugar de calcularse nuevamente. Esto puede ahorrar mucho tiempo, especialmente en funciones que realizan cálculos intensivos o consultas repetitivas.

Beneficios de Usar lru_cache

  1. Optimización de Rendimiento: Mejora significativamente el rendimiento de funciones recursivas o funciones que se llaman repetidamente con los mismos argumentos.
  2. Simplicidad: Fácil de implementar con cambios mínimos en el código existente.
  3. Configurabilidad: Puedes ajustar el tamaño de la caché con el parámetro maxsize. Si se establece en None, la caché puede crecer indefinidamente.

Ejemplo Práctico: Cálculo de Fibonacci

Calcular números de Fibonacci recursivamente es un buen ejemplo para demostrar el poder de lru_cache. Sin optimización, este cálculo puede ser extremadamente ineficiente.

python
from functools import lru_cache @lru_cache(maxsize=None) def fibonacci(n): if n < 2: return n return fibonacci(n - 1) + fibonacci(n - 2) # Llamadas a la función print(fibonacci(10)) # Salida: 55 print(fibonacci(20)) # Salida: 6765 print(fibonacci(30)) # Salida: 832040

En este ejemplo, la función fibonacci se optimiza utilizando lru_cache, almacenando en caché los resultados de llamadas previas y evitando cálculos redundantes.

Uso en Consultas Frecuentes

Otro uso práctico de lru_cache es en funciones que realizan consultas a bases de datos. Imagina una función que ejecuta una consulta costosa cada vez que se llama.

python
import time from functools import lru_cache @lru_cache(maxsize=32) def consulta_bd(query): print(f"Ejecutando consulta para: {query}") time.sleep(2) # Simula una consulta costosa return f"Resultado para {query}" # Llamadas a la función print(consulta_bd("SELECT * FROM usuarios")) # Ejecuta la consulta print(consulta_bd("SELECT * FROM usuarios")) # Utiliza el caché print(consulta_bd("SELECT * FROM productos")) # Ejecuta la consulta

En este ejemplo, la primera vez que se llama a consulta_bd("SELECT * FROM usuarios"), la consulta se ejecuta y se almacena en caché. Las llamadas subsiguientes con el mismo argumento recuperan el resultado de la caché, ahorrando tiempo.

Implementación y Buenas Prácticas

  • Parámetro maxsize: Define el tamaño máximo de la caché. Un valor más alto permite almacenar más resultados, pero consume más memoria.
  • Control de Caché: Asegúrate de que las funciones caché no almacenen datos sensibles o cambiantes frecuentemente.
  • Monitorización: Utiliza herramientas de monitoreo para observar el rendimiento y ajuste el tamaño de la caché según sea necesario.

Conclusión

functools.lru_cache es una herramienta poderosa para mejorar el rendimiento de tu código en Python. Ya sea para optimizar funciones recursivas como el cálculo de Fibonacci o para acelerar consultas frecuentes a bases de datos, lru_cache puede ahorrar tiempo y recursos significativamente.

Para más detalles sobre functools.lru_cache, puedes consultar la documentación oficial de Python.

Comentarios

Entradas populares de este blog

Lenguajes de programación más conocidos en la historia de la computación

Los primeros lenguajes de programación eran difíciles de construir ya que éstos debían ser "desarrollados" a un nivel que la máquina entendiera directamente, es decir, la programación de computadoras de esta época dependía mucho de la máquina para la que se estaba trabajando y detectar un error o fallo en la programación no solo era complejo sino que demandaba mucho tiempo y esfuerzo. En 1946 Grace Murray Hopper, científica en sistemas y oficial de la marina estadounidense creo el FLOW-MATIC, considerado el primer lenguaje de programación útil para resolver problemas de usuarios comerciales.  Su desarrollo fue enfocado a la UNIVAC 1.  Este lenguaje de programación fue visto como de "alto nivel", fácil de usar por los científicos de la época.  FLOW-MATIC requería de un traductor (compilador) para ser interpretado por la máquina.   Con este lenguaje de programación se establece el concepto de programación basado en palabras del lenguaje natural y se da inicio al d...

Las 10 Aplicaciones Más Descargadas en Google Play Store y Apple App Store en 2024

  En el mundo digital actual, las aplicaciones móviles juegan un papel crucial en nuestras vidas diarias. Con millones de aplicaciones disponibles, solo unas pocas logran destacar y acumular millones de descargas. En este artículo, exploramos las aplicaciones más descargadas en Google Play Store y Apple App Store hasta la primera mitad de 2024. 1. Instagram Instagram sigue siendo una de las aplicaciones más populares a nivel mundial. Con 696 millones de descargas en Google Play Store, esta plataforma de redes sociales permite a los usuarios compartir fotos y videos, interactuar con amigos y seguir a celebridades. 2. TikTok TikTok, la aplicación de videos cortos, ha revolucionado la forma en que consumimos contenido. Con 654 millones de descargas en Google Play Store, se mantiene como una de las favoritas entre los usuarios jóvenes y creativos. 3. Facebook Facebook, la red social pionera, continúa siendo relevante con 553 millones de descargas . La plataforma ofrece una variedad d...

SQL Error [53200]: ERROR: out of shared memory

  ¡Hola, amigos del blog! Hoy vamos a hablar sobre un tema que puede causar más de un dolor de cabeza a los que trabajamos con PostgreSQL: el temido error SQL Error [53200]: ERROR: out of shared memory. Pero no te preocupes, porque aquí te explico por qué sucede y cómo solucionarlo de manera sencilla y divertida. Imagina que estás en una fiesta y hay demasiada gente queriendo usar el mismo baño. Al final, alguien se quedará esperando fuera, ¿verdad? Algo similar pasa con PostgreSQL cuando se queda sin memoria compartida para gestionar los bloqueos de los objetos. Este error suele aparecer cuando hay demasiados objetos bloqueados en una sola transacción o cuando el parámetro max_locks_per_transaction está configurado demasiado bajo. ¿Por qué ocurre este error? Las principales causas son: Muchas transacciones concurrentes : Cuando hay demasiadas transacciones al mismo tiempo, todas compitiendo por recursos. Operaciones complejas : Transacciones que bloquean muchos objetos a la vez, ...