Los datos de elecciones generales

Actualmente me encuentro un poco desconectado de todo, desarrollando una forma fácil de navegar los datos que el Tribunal Supremo…

Los datos de elecciones generales

Actualmente me encuentro un poco desconectado de todo, desarrollando una forma fácil de navegar los datos que el Tribunal Supremo Electoral publicó acerca del resultado de elecciones generales 2019 (1ra vuelta) para que podamos todos verificarlos. Sin embargo, hago una pausa ya que he visto a muchas personas confundir muchos términos, algo sumamente peligroso en un tema tan delicado.

  1. Los datos publicados por el Tribunal Supremo Electoral son públicos, cualquier persona con acceso al internet en cualquier parte del mundo, tiene acceso a ellos. Estos datos comprenden de resultados digitalizados en dos formatos, imágenes de las actas y textos “levantados” (ingresados manualmente) al sistema.
  2. La Ley de Libre Acceso a la Información, la Ley de de Emisión de Pensamiento y la Constitución Política de la República de Guatemala amparan que los ciudadanos guatemaltecos tengamos acceso a estos datos públicos, es por ello que ya de por sí, son públicos gracias al Internet.
  3. Cualquiera con mucha paciencia, pudiera copiar uno a uno los resultados y guardar una a una las imágenes de las actas sin violar la seguridad del sitio web del Tribunal Supremo Electoral donde fueron publicados los datos, y cualquiera que sepa programar un poco (porque no hace falta mucho conocimiento) puede crear un pequeño código de programación (script) para descargar de forma automatizada toda la información, ya varias personas lo han hecho, desde Luis Carlos Contreras con el lenguaje de programación Python hasta este su servidor con JavaScript y scripts Bash desde el día miércoles 19 de junio 2019.
  4. Al proceso de “clonar” o copiar toda la información pública de un sitio web a otro servidor de forma automatizada se le llama “web scraping”, de hecho, son muchos los sitios web que hacen cosas similares, buscadores como Google y Bing viven descargando, analizando y almacenando información de otros sitios para con ello incluirlos en sus bases de datos de búsqueda, el famoso Internet Archive o WaybackMachine es un sitio dedicado a guardar una copia de todos los sitios web en línea, Alexa se dedica a descargar y analizar el tráfico de todos los sitios en línea, en fin, es una práctica habitual.

Por todo lo anterior, recomiendo muchísimo conocer bien el tema de cómo funciona un sitio web, como funciona la publicación de datos del estado en general y qué procesos son utilizados para descargar la información para con ello evitar ser alarmistas o sesgados al momento de sacar cualquier conclusión, hoy más que nunca debemos ser cautos antes de emitir cualquier criterio que pueda socavar cualquier intento de auditar el proceso electoral.