Connect with us

Internet

Montando en el año 2001 un servidor de Internet «casero»

Publicado

en

servidor de Internet

En el año 2001, debido a la inexistencia de hosting gratuitos que pudieran ejecutar scripts Perl o Php, comencé a desarrollar en mi cabeza una idea… ¿Por qué no montar mi propio servidor de Internet en casa? ¡Pues manos a la obra!

Mi relación con la conectividad informática nació en el año 1989 cuando, a través de un módem serie externo de 300 baudios y la línea de teléfono estándar, me conectaba a diferentes BBS operativas por toda España utilizando un ordenador PC Compatible. Posteriormente, allá por el año 1992, usé un ordenador 386DX clónico para conectarme a otro tipo de red un poco más avanzada: la red Ibertex. Pero, en realidad, eran conexiones breves y esporádicas… se hacía imprescindible vigilar el gasto telefónico.

En Enero de 1996 me conecté a Internet, por primera vez, aprovechando que en Septiembre de 1995 Telefónica había estrenado un servicio llamado Infovia, cuya finalidad principal era igualar el coste de acceso a Internet a llamada local en todo el territorio nacional ¿Aquello era importante? Pues sí lo era, y el nacimiento de Infovia provocó el acercamiento de Internet a hogares y pequeñas empresas.

Para realizar la conexión a Internet se debía conectar el usuario, directamente, a un equipo de un proveedor de servicios y, además, pagar el tiempo de conexión en función de la distancia entre el proveedor y la usuario.

En aquellos primeros años de Internet liberalizado para el uso público, para realizar la conexión a la red se debía conectar el usuario, directamente, a un equipo de un proveedor de servicios —pagando una cantidad mensual o anual por ese derecho— y, además, pagar el tiempo de conexión en función de la distancia entre el proveedor y la usuario. Una persona que vivía en Madrid, si su proveedor se encontraba situado en la misma ciudad, disfrutaba de un coste de conexión por tiempo a razón de la aplicación de una tarifa de llamada local ¿Pero qué pasaba el usuario vivía en una ciudad más pequeña? Pues que seguramente no tendría un proveedor de servicios en la ciudad, por lo que era necesario darse de alta en uno de Madrid o Barcelona —o cualquier ciudad grande que tuviera proveedores operando—, si bien la cuota con el proveedor del servicio era la misma, el tiempo de conexión sería tarificado a un precio de llamada interprovincial si el usuario se encontraba, por ejemplo, en otra provincia. Infovia terminó con aquello, ya que todo el mundo pasó a conectarse a través de un número de teléfono único 055, cargando a todos los llamantes una tarifa de llamada local, independientemente del origen geográfico del llamante… una revolución fue aquello…

Las primeras conexiones a Internet que pude realizar fueron ejecutadas en el año 1995 en una empresa de informática en la que trabajaba, utilizando un proveedor de servicios local a través de Infovia por medio de un módem de última generación US Robotics de 28800 bits por segundo que, al comprar a un mayorista, había conseguido para la empresa por un precio chollo de 25.000 pesetas. Allí, en aquella empresa, descubrí por primera vez las páginas web, email con Eudora, News, Telenet y, sobre todo, el mundo IRC (Chat) que estaba a punto de ser disparado a la popularidad mundial.

Me fascinó el mundo de Internet, y el siguiente objetivo fue poder conectarme aquella red desde mi domicilio; para ello compré un módem interno más modesto, de 14.400 bits por segundo, y para acceder a Internet utilicé Infovia, al dar de alta una cuenta de acceso en el famoso proveedor de servicios sevillano llamado Arrakis. Aquella empresa sevillana —fundada en Enero de 1996 por los hermanos Luis y Germán Torrado, acompañados de Juan Ignacio Rodríguez— desarrolló un servicio de acceso a Internet más económico y accesible que lo que había en España hasta ese momento, y en pocos meses la empresa sevillana arrasó el mercado de los proveedores de Internet hasta tal punto que a los 4 años, en 1999, fue adquirida por British Telecom.

La velocidad de acceso a Internet en aquella época no era ágil, más bien lo contrario, y otro tipo de redes más rápidas como la RDSI solo eran asumibles por empresas de cierto tamaño.

A finales del año 1996 contaba con mi módem de 14.400 bits por segundo y el acceso a Internet de Arrakis, todo gracias a un único y cómodo pago anual de 10.300 pesetas, y el tiempo de conexión calculado como llamada local; con aquel acceso me metí de lleno en el mundo de Internet donde, rápidamente, empecé a crear páginas web. Pero la velocidad de acceso a Internet en aquella época no era ágil, más bien lo contrario, y otro tipo de redes más rápidas como la RDSI solo eran asumibles por empresas de cierto tamaño.

Llegando al nuevo milenio fui mejorando la red de la empresa en la que trabajaba al instalar, por ejemplo, el software Wingate… uno de los primeros proxies que permitían a todos los ordenadores de la empresa que estaban en una red local compartir el acceso a Internet a través de un único módem, una única línea telefónica, con ambos dispositivos conectados entre sí a un único ordenador que hacía las veces de servidor. Aquello fue un avance importante, todos los ordenadores compartían el acceso a Internet con una única cuenta, línea, y módem… pero, con el nuevo milenio a las puertas, ya se comentaban las futuras redes de banda ancha.

Con la entrada del año 2000 se iniciaron las instalaciones de ADSL o Cable en pequeñas empresas y hogares. Para la ADSL se utilizaba la línea de teléfono básica, y para la conexión por Cable el medio utilizado era fibra óptica hasta las subestaciones, y de allí a los domicilios cable coaxial. A mediados del año 2000 llegó a mi domicilio un acceso a Internet mediante cable-módem por coaxial y fibra óptica… adiós a las llamadas de teléfono para realizar la conexión… adiós a ocupar la línea de teléfono en los tiempos de conexión a Internet…  y hola a la conexión a Internet rápida y permanente. La llegada de banda ancha a mi domicilio fue un paso muy importante, y mi afición por Internet fue a más… entonces empecé a desarrollar páginas web y proyectos en Internet mucho más complejos… hasta que me topé con nuevos obstáculos una vez entrado el año 2001.

En el año 2001, y con la llegada de las redes de banda ancha, ya no era necesario pagar a un proveedor de servicios para acceder a Internet, ni era necesario pagar por el tiempo de conexión, además de no ocupar la línea de teléfono para voz cuando estaba activa una conexión a Internet. El coste del servicio era una cuota fija mensual con el proveedor de banda ancha, y la conexión era ilimitada. También era gratuito poner en marcha una página web en Internet, ya que había miles de servidores que ofrecían espacio gratuito, sin coste económico alguno, para que los internautas pudieran subir sus propias páginas a la red. Pero solo había lugar para sencillas páginas HTML con frames, textos, e imágenes, y algún que otro formulario mailto.

Contratar un espacio web para la ejecución de scripts Perl o Php y conectar a una base de datos no era gratis.

A la hora de desarrollar páginas complejas ya era necesaria, en el año 2001, la ejecución de scripts Perl o Php, y también la conexión a base de datos como, por ejemplo, MySQL. Contratar un espacio web para esos servicios no era gratis, y el coste no era, precisamente, accesible en cuantía. Por eso, en aquella época, comencé a desarrollar en mi cabeza una idea… ¿Por qué no montar mi propio servidor de Internet en casa? ¡Pues manos a la obra!

Poco tiempo después inicié las primeras pruebas sobre mi ordenador personal que utilizaba para mis labores diarias… que tenía instalado Windows; entonces instalé aplicaciones como Apache, Perl, Php, y MySQL en versiones para el sistema operativo de Microsoft. Y después de muchas pruebas estaba completamente atascado: el servidor Web, que era el primer paso, no funcionó. Después de mil vueltas descubrí que mi proveedor de acceso a Internet bloqueaba, por defecto, el uso de los puertos TCP de sistema en el sentido de subida hacia el módem-cable, que son los puertos que van del 0 al 1024. Y el puerto estándar de un servidor web es el 80. Así que redireccioné el servidor al puerto 8080 y, por fin, logré hacer funcionar un servidor web propio en mi hogar.

El siguiente paso fue darle un dominio al servidor, pero registrar uno de los oficiales (.com, .net, .org, o .es) era realmente más caro que en la actualidad, así que opté por crear un subdominio gratuito en un famoso redireccionador, en aquellos años llamado cjb.net. Posteriormente, monté un servidor FTP, News, Telnet… todos los servicios utilizados en aquellos años, excepto el servidor de correo electrónico porque el hecho de tener bloqueados los puertos 25 y 110 era un problema más serio no evitable mediante una sencilla redirección.

Cuando terminé de realizar todas las pruebas con mi servidor de Internet bajo Windows, fui totalmente consciente de dos problemas: en primer lugar, un servidor de Internet debía estar encendido las 24 horas al día y aquel ordenador era para mi uso personal diario; en segundo lugar, el acceso de banda ancha que contaba en aquellas fechas disponía de unos límites de 128 Kilobytes de bajada y 64 Kilobytes de subida. Con aquel ancho de banda, un servidor Windows no era una buena opción si el equipo comenzaba a disponer de un tráfico de usuarios importante…

Comencé a montar un equipo de cero basado en piezas de desecho. Así me hice con una placa base y un microprocesador Intel 486DX2.

En el año 2001 tenía acceso a muchas piezas viejas de desecho que terminaban en la basura. Así que comencé a montar un equipo de cero basado en esas piezas de desecho. Así me hice con una placa base y un microprocesador Intel 486DX2, 4 Megabytes de memoria RAM, una tarjeta gráfica sencilla, una tarjeta de red, y un disco duro de 4,3 Gigabytes… así hasta completar todo lo necesario para que ese ordenador clónico pudiera operar.

Una vez montado el equipo, le puse ventilación extra y busqué el sistema operativo adecuado que no podía ser otro que no fuera un Linux. En una tienda de prensa y revistas de mi ciudad rebusqué entre las revistas de informática hasta encontrar una que incluyera una distribución Linux… me hice con una distribución Red Hat Linux por el módico precio de lo que pagué por la revista. Instalé el Linux en el equipo de desecho configurando el Servidor Web con Php Perl, MySQL, FTP, y Telnet; el rendimiento de aquel servidor con el ancho de banda de 128 Kb de bajada era, sencillamente, espectacular —para esa época, claro está—.

Es importante tener en cuenta que en el año 2001 ya estaban llegando a los domicilios los ordenadores basados en el microprocesador Intel Pentium IV, así que mi servidor de Internet era muy inferior y antiguo, pero sobre el Linux es importante aclarar que es increíble el rendimiento que puede obtener ese sistema cuando hablamos de Internet y los diferentes servicios del modo servidor. No obstante, muy poco tiempo después, me hice con una placa base y un microprocesador Intel Pentium I 120 Mhz que iban directos a la basura… les evité aquel triste final, y los monté en el servidor para sustituir el Intel 486DX2. Unos meses más tarde, conseguí un Intel Pentium I a 133 Mhz y sustituí el procesador, además de montar una unidad adicional de disco duro con 40 Gigabytes de capacidad… el disco duro principal de 4,3 Gigabytes era demasiado pequeño.

A partir de ahí. mi servidor de Internet comenzó a funcionar a la perfección, y además de subir mis complejas páginas web con programación y base de datos sin coste económico alguno para mí, llegué a colgar, incluso, una webcam que tomaba imágenes de la ciudad desde mi habitación —disponía de una espectacular vista de la ciudad desde mi ventana— y las subía en tiempo real a Internet. Poco después empecé a ofrecer servicios totalmente gratuitos de hosting con ejecución de scripts y acceso a base de datos, estrategia que llenó mi servidor de páginas web de usuarios de toda España.

Como importante mejora adicional registré un dominio directo .com para eliminar la redirección de terceros.

Al terminar el primer año de funcionamiento del servidor casero, me hice con una placa base y un microprocesador Intel Pentium II 233 Megahercios, y más memoria RAM para ampliar el servidor. Además, el proveedor de banda ancha subió sin coste los límites del ancho de banda a 256 Kilobytes de bajada y 128 Kilobytes de subida. No mucho después, el ancho de bajada alcanzó los 640 Kilobytes. Como importante mejora adicional registré un dominio directo de extensión .com para eliminar la redirección de terceros… más profesional así…

Aquel servidor de Internet casero estuvo operativo durante casi 5 años, entre los años 2001 y 2006, ofreciendo servicios totalmente gratuitos con el máximo de prestaciones, de los primeros —si no fue el primero— que hubo en España que ofrecía espacio web de calidad con base de datos y permisos de ejecución de scripts totalmente gratis… pero llegó un punto en el que me fui a trabajar lejos de mi tierra, y tuve que desmontar todo aquello al tener que hacer mudanza.

En la actualidad, un servidor de Internet propio ya no es tan importante, ya que el coste de tener contratado un hosting multidominio, o incluso un servidor VPS completo, es tan bajo que saldría más caro montar un ordenador en casa, y pagar el gasto de luz que va a generar el hecho de estar encendido 24 horas al día… eso sin contar el coste del mantenimiento. Y, en la actualidad, existen hosting gratuitos con acceso a base de datos y programación, incluso con dominio propio; y si es de pago, todo a bajo coste… ¡es realmente barato mantener una web en Internet! No obstante, he de reconocer que guardo con especial cariño recuerdos de aquellos años de trapicheo con piezas de desecho, y de ingenio para lograr objetivos informáticos dentro de un primitivo Internet para gastar la menor cantidad de dinero posible.

Nacido en Asturias, y residente en el País Vasco desde el año 2005, soy Arquitecto de Software, y desarrollo mi labor profesional en Ingeniería de Software desde hace más de veinticinco años, tanto en el sector industrial (Ingeniería I+D) como en la administración pública. Hasta la fecha he publicado cinco libros en formato papel entre los años 2009 y 2019, y he ganado varios premios nacionales e internacionales con asuntos relacionados con Internet. También realizo una labor de recuperación de la historia de la informática, y en el año 2018 publiqué el libro Historia de la Informática Personal, donde profundizo en la historia de la informática clásica. En mi web personal se puede encontrar más información sobre mí (https://manuel-llaca.com).

Internet

Consejos para optimizar un sitio web basado en WordPress

Publicado

en

optimizar wordpress

¿Cómo optimizar WordPress? Una gran pregunta para los millones de personas que crean páginas web a través de ese estupendo gestor de contenidos… el más importante de todos los existentes en el mercado.

A nivel mundial WordPress es el gestor de contenidos más utilizado, abarcando el 33,6% de todas los sitios web, y en el caso concreto de aquellos basados en gestores de contenidos (Content Management System o CMS) abarca, nada más y nada menos, que el 60,5% de cuota de mercado; WordPress está muy alejado del segundo en la lista, que es Joomla, con un 2,9% de cuota de mercado en todos los sitios web, y un 5,2% de mercado entre todos los gestores de contenidos.

La gran preferencia para los creadores web españoles es el WordPress.

En el caso de España los datos son más abrumadores… el WordPress ocupa el 65% de todos los sitios web existentes en el Internet español… un dato muy importante a tener en cuenta; la gran preferencia para los creadores web españoles es el WordPress.

Los gestores de contenidos abrieron la puerta a la creación de páginas web multipropósito basadas en el contenido con rapidez y mayor facilidad, abriendo también la puerta a la posibilidad de crear páginas complejas sin necesidad de ser informático… ya no es necesario saber de programación y bases de datos para crear una página, así como tampoco es necesario crearlas desde cero.

Una web basada en un CMS será mucho más pesada y lenta…

Pero utilizar un gestor de contenidos, como el WordPress, implica colocar una capa muy pesada en medio, todo un framework completo para desarrollar una web que utilizará una parte de toda la estructura. Una web basada en un CMS será mucho más pesada y lenta… y a eso no escapa ni el propio WordPress. Por eso es muy importante optimizar los sitios web creados bajo el auspicio de los gestores de contenidos.

En este artículo voy a definir una serie de mejoras que optimizarán cualquier sitio web basado en WordPress, logrando que sea más rápido y menos pesado en cada caso. Los consejos, basados totalmente en mi propia experiencia, son los que realmente me han funcionado en el camino de optimizar el sitio web WordPress, pero este texto no es un manual de cómo hacer esas mejoras… buscando en Internet se conseguirán ejecutar los cambios sin grandes complicaciones.

Temas ligeros y pocos plugins

Antes de detallar el resto de consejos, el primero —y esencial— hace referencia a los temas elegidos y a los plugins importados. Respecto a los temas comentar que los hay creados específicamente para un tipo de página web —por ejemplo el tema creado específicamente para un blog— y, después, existen temas multipropósito con diferentes plantillas según el tipo de sitio web. Los temas multipropósito son más pesados y suelen cargar más plugins.

En un sitio web basado en WordPress es muy importante activar solo aquellos plugins que realmente sean necesarios.

Respecto a los plugins, en muchas ocasiones se instalan demasiados, algunos de utilidad, otros que la tuvieron y ya no la tienen, y algunos para probar o para funciones que ya no se necesitan. En un sitio web basado en WordPress es muy importante activar solo aquellos plugins que realmente sean necesarios… cuantos menos haya, más rápida será la página.

Desactivar plugins de uso concreto

En los sitios web WordPress se instalan plugins que son de ejecución momentánea, por ejemplo un plugin para obtener una copia de de seguridad de la web. Este tipo de plugins se debieran activar en el momento de que fuera necesaria su ejecución, y una ver terminada, pasar a otra vez a estar desactivados.

La compresión GZIP

Activar la compresión GZIP es fundamental para cualquier sitio web, pero más fundamental es para una página basada en WordPress. Básicamente es enviar desde el servidor web el sitio comprimido en GZIP, siendo descomprimido en local por el propio navegador web, logrando que una web consuma menor ancho de banda, y siendo también más ágil en su carga.

Existen dos métodos para activar la compresión GZIP… el camino fácil y el difícil. El camino fácil es instalar un plugin que active esa función… hay muchos disponibles. El camino difícil, pero el más limpio y ágil, es modificar el fichero htaccess para activar la compresión, es el camino ideal principalmente por lo comentado más arriba… cuántos más plugins, más peso y lentitud.

Instalar plugin de Caché

Activar un sistema de gestión de caché, por ejemplo el famoso W3 Total Cache, permite tener la web entera cacheada, siendo actualizada cada determinado tiempo, logrando un aumento muy importante en la agilidad de la web. La gestión de caché quizás sea el método de optimización con el que más aumento de agilidad se alcanza para una web basada en WordPress, pero este cambio debe ser hecho con cautela… porque puede interferir con algunas partes del sistema.

En mis sitios web no uso ningún tipo de caché, ya que comprobé en muchas ocasiones que interfiere en la obtención de las estadísticas… se deja de contabilizar muchas visitas al sitio web, así como el número de visualizaciones de las diferentes entradas es adulterada. También existen otro tipo de problemas que pueden generar errores SEO, algo que siempre se debe evitar.

Recomiendo no ejecutar este punto por los «efectos secundarios» que pudiera producir el cacheo.

Instalar el plugin caché es lo primero que suele hacer todo el mundo, en mi caso personal sería lo último que haría… o quizás recomiendo no ejecutar este punto por los «efectos secundarios» que pudiera producir el cacheo.

Minificación y unificación

La minificación y unificación puede ser una alternativa al cacheo, de hecho muchos plugin de caché incorporan también esta característica. La minificación y unificación trata de unificar determinados archivos y unirlos, buscando reducir las llamadas al servidor. Principalmente se suele utilizar para los ficheros de estilos (CSS) y las funciones JavaScript (JS). Quizás el plugin más famoso que se centra en esto sea Autoptimize.

Este apartado también debe ser tomado con cautela, en mi experiencia sobre el asunto he tenido problemas muy concretos con esto de la minificación y unificación, ya que siempre que los he utilizado —por medio de diferentes plugins— siempre he tenido incompatibilidades y problemas con otros plugins importantes de mis sitios web.

Controlar plugins de paquetes multifunción

Existen plugins que ofrecen en una única instalación un montón de funciones; el más famoso podría ser Jetpack. Ese tipo de plugins son extensos y pesados, e incluyen un montón de funciones que no pueden ser desactivadas. Mucha gente utiliza Jetpack, pero solo utilizan algunas de sus funciones, y el tener activadas todas ellas genera procesos en ejecución innecesarios. Para el caso de Jetpack existe algún que otro plugin externo que permite desactivar todas las funciones no utilizadas o no deseadas, reduciendo en importante medida el impacto del módulo en cuestión.

Instalar certificado SSL

Mediante el protocolo HTTP/2 (HTTP 2.0) las páginas web se cargan mucho más rápido que mediante el clásico HTTP/1.1 (HTTP 1.0), pero los navegadores web solo soportan el nuevo protocolo si la conexión a la web se hace mediante SSL. Por ello se recomienda instalar desde el hosting un certificado del estilo a Let’s Encrypt, por ejemplo. Entonces la web pasará a ser cargada desde HTTPS en lugar de HTTP, y podrá utilizar el protocolo HTTP/2.

Deshabilitar las revisiones

WordPress almacena por defecto un control de revisiones, que permite volver a cualquier cambio hecho en cualquier entrada o página de WordPress. Tener activadas las revisiones implica ocupar más espacio y hacer más pesado el sistema. Se pueden deshabilitar las revisiones cambiando la configuración del WordPress.

Optimizadores de base de datos

Existen plugins que optimizan la base de datos en un momento dado, es decir, eliminan de la base de datos todo aquello que ya no es necesario. Si no están desactivadas las revisiones, la optimización de la base de datos elimina, por ejemplo, esas revisiones que, en muchos casos, ya son obsoletas. Este tipo de plugin es el que siempre debemos tener instalado pero desactivado, pasando a activarlo cuando se quiera hacer una optimización.

Activar Lazyload

Existe una funcionalidad llamada Lazyload, que es la carga de las imágenes de una web según se hace scroll en la página, hasta que no se muestra una zona donde hay una imagen, no se carga dicha imagen. Existen plugins para este tipo de funcionalidad.

Optimizar las imágenes

Existen plugins que permiten optimizar las imágenes ya subidas, y las nuevas por subir. En muchas ocasiones se suben a la web de WordPress imágenes con demasiada resolución, en muchos casos innecesaria, y los plugins optimizadores no solo permiten rastrear las ya subidas para optimizarlas, sino que controlan las nuevas a subir para que sean optimizadas en el momento de un inserción en la web.

Ampliar el periodo de Heartbeat API

En WordPress existe la Heartbeat API, que es un sistema que hace llamadas cada 15 segundos o 2 minutos, depende del estado del WordPress en cada momento, para realizar comprobaciones o ejecutar determinadas tareas. Esa funcionalidad es la culpable, por ejemplo, del autoguardado de las entradas o páginas en redacción.

Conviene aumentar el espacio de tiempo entre las diferentes llamadas a la Heartbeat API.

Sobre este apartado conviene aumentar el espacio de tiempo entre las diferentes llamadas, y para eso existen diferentes plugins que permiten hacer precisamente eso, aumentar el tiempo entre llamadas, lo que provocará que se hagan menos llamadas y un aumento en el rendimiento de la web.

Desactivar REST API

Una de las grandes funcionalidades introducida en los últimos años en WordPress fue la REST API, librería que permite hacer integraciones de WordPress en aplicaciones externas. Pero la mayoría de los usuarios WordPress no la utilizan; si no se utiliza la REST API, conviene desactivarla. Se puede desactivar mediante plugins o manualmente.

Ejecutar externamente el cron de WordPress

El gestor de contenidos WordPress dispone de su propio cron, un programador de tareas a ejecutar que se encuentra en el fichero wp-cron.php. En este caso no recomiendo deshabilitar el servicio de cron, sino que sea gestionado de forma externa, ya que la gestión desde el propio WordPress consumo demasiados recursos.

Conviene deshabilitar en WordPress las ejecuciones del fichero wp-cron.php.

¿Cómo se gestiona de forma externa el cron de WordPress? La mayoría de hosting para alojar páginas web permiten utilizar el programador de tareas propio del servidor, por lo tanto conviene deshabilitar en WordPress las ejecuciones del fichero wp-cron.php, y pasar a configurar dichas llamadas en el propio cron del servidor web donde está alojada la página web.

Optimizar el fichero Robots.txt

Nuestras páginas web son constantemente visitadas por bots, programas informáticos que rastrean cada sitio web para indexar el contenido —por ejemplo los buscadores web como Google utilizan bots—. En muchos casos es necesaria la visita de los bots a nuestras páginas, pero en otros tantos esas visitas no son apropiadas, incluso maliciosas, y consumen recursos excesivos. Optimizar el fichero robots.txt permite indicar específicamente que bots queremos que nos visiten, limitando el consumo de recursos en nuestra web.

Limpiar las cabeceras wp_head

El gestor de contenidos WordPress introduce mucha información en las cabeceras de la página que, en muchos casos, es totalmente innecesaria y eleva las peticiones de la página. Conviene ejecutar lo que se conoce como limpiar las cabeceras, únicamente sobre una lista de etiquetas concretas que son reconocidas como innecesarias. Para hacer eso hay que añadir en el código Php una función de limpiado de cabeceras y añadir una acción para que sea ejecutada en la carga de la web.

Este es el resumen de actuaciones que, en base a mi experiencia, logran que una web basada en WordPress mejore mucho en tamaño y rendimiento; incluir la totalidad de estas medidas, a excepción de la caché y minimificación-unificación que en mi opinión generan más problemas que resuelven, redundarán en un aumento muy importante de una agilidad ya limitada por el uso de un CMS en su capa inferior.

Continuar leyendo...

Internet

El crecimiento del cloud como solución IT para el futuro de las empresas

Publicado

en

cloud

Los servicios alojados en la nube suponen un verdadero valor añadido no sólo en un entorno global, sino también en un entorno más local.

El cloud computing es una realidad cotidiana para muchas empresas que han adoptado esta tecnología en sus propios procesos internos, muchas veces con soluciones IT desarrolladas a medida según las necesidades que cada compañía tiene.

Hay una pérdida parcial de control sobre la información que subimos a la nube.

A pesar de que sean muchas las empresas dispuestas a orientarse a este tipo de solución y a invertir en la digitalización, lo que más preocupa sobre este tema es la seguridad de los datos. De hecho, en una cierta forma, hay una pérdida parcial de control sobre la información que subimos a la nube, por eso es muy importante conocer las medidas de seguridad adoptadas por el proveedor para conservar nuestros datos y asegurarse que él cumpla con todos los requisitos exigidos por la normativa.

También es cierto que con los continuos avances en el sector del cloud computing los riesgos van disminuyendo y los sistemas de seguridad son cada vez más eficientes. Además de esto, una solución válida para obviar los riesgos que comporta transferir procesos y datos a la nube,
es el multi cloud, es decir, distribuir la información en varios cloud gestionados por diferentes proveedores.

¿Pero cuáles son las ventajas de trabajar en un entorno cloud?

Antes que nada, hay una ventaja que resalta por encima de las demás: se acaba el riesgo de obsolescencia tecnológica, ya que migrar a una solución cloud es la mejor forma de evitar actualizaciones constantes permitiendo generar un ahorro importante en los costes de infraestructura y mantenimiento.

El cloud computing es un modelo que promueve los aspectos más sociales y culturales.

Otro aspecto a destacar del cloud computing es, sin duda, el cambio del modelo de trabajo, puesto que se trata de un modelo que promueve los aspectos más sociales y culturales, aspectos que se están difundiendo cada vez más gracias a este tipo de tecnología. En definitiva, un modelo orientado a la movilidad y al trabajo colaborativo desde cualquier parte del mundo y en cualquier momento.

Los servicios alojados en la nube suponen un verdadero valor añadido no sólo en un entorno global, sino también en un entorno más local. Un ejemplo real es el software de facturación desarrollado por Wolters Kluwer y distribuido por Link Soluciones en toda España, una solución de facturación online que permite que el cliente trabaje de forma colaborativa con su asesor contable dándole acceso a la plataforma, gracias a la cuál puede disponer de la información necesaria para la gestión de los modelos fiscales, y olvidando así otras vías de contacto entre asesor-cliente, fomentando así una colaboración eficiente, rápida y orientada a un futuro sin papeles.

En un futuro cercano la tecnología se basará exclusivamente en la nube.

A pesar de que a muchas compañías les parezca un reto muy grande sumarse al mundo del computing cloud, nuestra experiencia nos indica que no se trata de una opción, sino de un comienzo para transformar la cultura empresarial existente, puesto que en un futuro cercano la tecnología se basará exclusivamente en la nube.

Escrito por Dayana Piccoli (autora invitada).

Continuar leyendo...
Advertisement

¡Suscríbete!

¡Suscríbete y recibe los artículos en tu email!

Si lo deseas, puedes suscribirte a ParcelaDigital.com y recibir en tu correo electrónico los artículos ¡Es gratis!



Premios Obtenidos



- Blog ganador del Premio Web Internacional OX en dos ocasiones (años 2016 y 2017) a la mejor web de Informática e Internet en Europa
- Ganador del Premio Blog del Día (19 de Octubre 2018)
- Dos veces finalista (3 primeros) en los Premios Buber Sariak a la Mejor Web del País Vasco (ediciones 2017 y 2018).

Advertisement

Historia de la Informática

Historia de la Informática Personal

Premios Web en español

Advertisement
Ana Nayra Gorrín
Entrevistashace 1 día

Ana Nayra Gorrin, bloguera y escritora de novela actual.

Zaltair
Misceláneahace 2 días

Historia de una broma: El ordenador Zaltair-150 y el lenguaje BAZIC de Steve Wozniak

Marta Lobo
Entrevistashace 6 días

Marta Lobo, autora de romántica y bloguera

industria doméstica
Hardwarehace 2 semanas

La industria doméstica de Apple y el mito del nacimiento en un garaje

ordenador para casa
Opiniónhace 3 semanas

¿Qué ordenador compro para casa?

Asistentes virtuales
Softwarehace 3 semanas

Una historia sobre los asistentes virtuales de voz

Ventamatic
Historiahace 4 semanas

Ventamatic, pionera en el desarrollo de la informática personal en España

bromas informáticas
Misceláneahace 1 mes

Aquellas bromas informáticas de los noventa…

Historia de la Informática Personal
Historiahace 1 mes

Historia de la Informática Personal: Segunda edición del libro

tópicos olvidados
Misceláneahace 1 mes

Diez tópicos de la informática clásica en el olvido

Bugaboo
Leyendashace 2 meses

Bugaboo, el primer videojuego español y un hito en la historia del software

Microsoft
Softwarehace 2 meses

El importante papel que jugó Microsoft en la década de los setenta

Leyendashace 2 meses

Factor-S, un miniordenador 100% español

TRS-80
Leyendashace 2 meses

Tandy Radio Shack TRS-80

Commodore Amiga 500
Leyendashace 2 meses

Commodore Amiga 500, un gran ordenador entre el dominio de la arquitectura PC

IBM PS/2
Leyendashace 2 meses

IBM PS/2, el equipo con el que IBM intentó recuperar el dominio del mundo PC

optimizar wordpress
Internethace 2 meses

Consejos para optimizar un sitio web basado en WordPress

Senderos de Ávalon
Misceláneahace 3 meses

Los Senderos de Ávalon, un libro que rememora los años dorados de la informática

central términa
Opiniónhace 3 meses

Un museo de la informática clásica en una central térmica

cloud
Internethace 3 meses

El crecimiento del cloud como solución IT para el futuro de las empresas

tópicos olvidados
Misceláneahace 1 mes

Diez tópicos de la informática clásica en el olvido

bromas informáticas
Misceláneahace 1 mes

Aquellas bromas informáticas de los noventa…

Datos curiosos sobre informática
Misceláneahace 2 años

Curiosidades de la informática (I)

blogs de informática
Internethace 5 meses

Los mejores blogs de informática (en español)

lenguajes de programación
Opiniónhace 3 años

La evolución de los Lenguajes de Programación

Fortran
Historiahace 2 años

Fortran, el primer lenguaje de programación de alto nivel y el inicio de los compiladores

programas de utilidad
Softwarehace 5 meses

Lista de 18 programas de utilidad (y gratuitos) para ordenadores PC

Bugaboo
Leyendashace 2 meses

Bugaboo, el primer videojuego español y un hito en la historia del software

Arrakis
Internethace 2 años

Arrakis, un proveedor de Internet de éxito en los años noventa

BASIC
Historiahace 2 años

BASIC, el lenguaje de programación más famoso

El Rincón del Vago
Internethace 2 años

El Rincón del Vago, la web de los apuntes

Historia de la Informática Personal
Historiahace 1 mes

Historia de la Informática Personal: Segunda edición del libro

Historiahace 3 años

La máquina Z3 de Konrad Zuse

actualizar ordenador
Hardwarehace 1 año

¿Comprar nuevo o actualizar ordenador? Mostramos un caso real

PortalProgramas
Internethace 3 años

PortalProgramas… la mejor web de descarga de software

ordenador para casa
Opiniónhace 3 semanas

¿Qué ordenador compro para casa?

Zaltair
Misceláneahace 2 días

Historia de una broma: El ordenador Zaltair-150 y el lenguaje BAZIC de Steve Wozniak

Historiahace 2 años

DEC, la serie PDP, y el primer miniordenador de la historia de la informática

Commodore Amiga 500
Leyendashace 2 meses

Commodore Amiga 500, un gran ordenador entre el dominio de la arquitectura PC

Harbour
Softwarehace 2 años

El compilador Harbour… un renacer para el Clipper