Más artículos sobre Big Data
Otra de las bases de Big Data es la computación en la nube o cloud computing logrando que los desarrolladores ya no requieran de grandes inversiones en hardware, la elasticidad de recursos sin necesidad de pagar por servicios Premium de gran escala es un hito fundamental en la historia de las tecnologías de la información. Se auguró el crecimiento de cloud computing independientemente de si los servicios adquiridos son a bajo o alto nivel de abstracción. Se afirma que el almacenamiento, cómputo y las redes deben concentrarse en la escalabilidad horizontal de los recursos virtualizados en lugar del rendimiento de un solo nodo. Se planteó la necesidad de que las aplicaciones de software tuviesen una rápida escalabilidad y que los sistemas de hardware fuesen diseñados a escala de contenedor [9]. El Data Science se ha establecido como un importante campo científico emergente, todavía hay muchos paradigma que investigar que pueden ayudar a la transformación práctica en ámbitos como la ciencia, la ingeniería, el sector público, los negocios, las ciencias sociales y el estilo de vida. Esta revista abarca las áreas más grandes de inteligencia artificial, análisis de datos, aprendizaje automático, reconocimiento de patrones, comprensión del lenguaje natural y manipulación de big data.
Por otra parte, la datificación y la digitalización son dos conceptos que en ocasiones se mencionan como sinónimo, pero no lo son. Tal como lo ilustra Mayer y Cukier, la datificación ocurrió mucho antes de que aparecieran las Tecnologías de Información (TI) y, por ende, es anterior a la digitalización4. La transformación de estos datos, por medio del análisis y la reorganiza ción, en información susceptible de ser utilizada en cualquier área del conocimiento (medicina, aeronáu tica, física, astronomía, etc.), es lo que se podría llamar “datificación”.
La influencia del Big Data en el ámbito deportivo
Esta especificidad radica en el hecho que mediante procesos de extracción de características morfológicas sobre el objeto de estudio (Márquez, 2019), se validan con respecto a patrones propios de otras enfermedades, estableciéndose factores de similitud, bien en cuanto a la geometría del tejido, lesiones en el mismo y variaciones de intensidad, entre otros. El aprendizaje profundo es un subcampo del aprendizaje máquina, que busca clasificar datos mediante algoritmos correlacionales. Se basa en ciertas arquitecturas de redes neuronales, que le permiten jerarquizar la información (visual, auditiva y escrita) mediante una segmentación de patrones categorizados por niveles. Este sistema de comunicaciones fue evolucionando mediante la integración a la red virtual, en primer lugar, de los sitios de las universidades; más tarde, se incorporarían plataformas de negocios, se desarrollarían las redes sociales y se generaría una serie de aplicaciones, como la georreferenciación. Se puede afirmar, metafóricamente hablando, que pasamos de ser individuos análogos a individuos digitales, lo que ha propiciado que ahora estemos permanentemente conectados desde diferentes dispositivos prácticamente en todo momento.
- Esto significa, sin embargo, que, al momento de recolectar los datos e interpretarlos, probablemente la violación a los derechos ya pudo haber sucedido, por lo que no se tiene suficiente tiempo para anticiparse y mitigar los riesgos, ocasionando una protección poco efectiva (2018, p. 77).
- Como se puede apreciar, son variados los campos de dominio y problemáticas que pueden ser abordadas mediante la adopción de MapReduce para la simplificación de complejos.
- Bajo estos criterios, entra a formar parte la ciencia de datos empleando técnicas estadísticas y matemáticas caracterizadas en las variables de estudio que permiten ampliar las técnicas y modelos representados como clusters (Mohebi et al., 2016) a través de patrones o correlaciones de datos, que a la vez pueden ser integrados con la IA para mejorar los resultados.
- La discriminación bajo este enfoque de las tecnologías disruptivas es un riesgo a tomar en cuenta, máxime cuando la toma de decisiones es cada vez más automatizada.
- En la actualidad, cualquiera de nuestras acciones, ya sea de manera consiente o inadvertidamente, son susceptibles de producir información registrable y ana lizable.
- Nos situamos en un momento en el que surgen también nuevas tareas dado el elevado nivel de información que debe ser filtrado gracias a herramientas estadísticas y de visualización.
Por ejemplo, utilizar aplicaciones como Google Glass, Epson Moverio, Pebble y Fitbit (Wei, 2014, p. 53), que monitorean las actividades de sus usuarios, hace posible reconstruir el mundo alrededor de ellos por medio de coordenadas de localización, velocidad de movimiento y dirección, así como gracias a las fotos de alta resolución y, en algunos casos, hasta la captura de sonido (Paterson & Maeve, 2018, p. 4). Se dirigió la búsqueda a aquellos artículos, revistas y documentos que contuvieran la palabra big data en el título, en el resumen, en las palabras clave y en el desarrollo del trabajo mismo, y que tuvieran relación con el tema de los derechos humanos, aunque este criterio de búsqueda no apareciera de forma literal en el título, el resumen o en las palabras clave del documento, pero sí en el desarrollo del trabajo. Actualmente, los individuos alrededor del mundo pueden ver vulnerados sus derechos humanos a través del manejo indiscriminado de la herramienta big data, ya que la información que se genera día a día y segundo a segundo por medio de los dispositivos tecnológicos -como los teléfonos inteligentes- abarca desde los hábitos de consumo de las personas hasta aspectos de su vida privada, como pueden ser sus creencias religiosas o sus datos biométricos. Así, la vulneración de derechos humanos se puede dar desde la manera en que se generan, almacenan y, en general, se tratan los datos de las personas, quienes en ocasiones desconocen cómo es que se están obteniendo y utilizando sus datos.
La era de “big data”
A ello se añade un cambio en las
rutinas profesionales que desembocan, según Paulussen y Harder (2014), en la navegación diaria de los periodistas
por las redes sociales en la búsqueda de informaciones o para no quedarse rezagados
en la difusión de los hechos. De hecho, un estudio de Pew Research (2012) concluye que el 39 % de los videos sobre
acontecimientos inesperados que fueron difundidos por medios de comunicación habían
sido https://losimpuestos.com.mx/en-que-se-beneficia-la-ciencia-de-datos-de-la-inteligencia-artificial-un-curso-que-te-ayuda-a-usarlos/ grabados por los ciudadanos. Esta realidad afecta directamente las tareas de los gobiernos, las empresas o los
investigadores y reafirma la importancia de las operaciones de recopilación,
análisis y representación de la información, asociadas con técnicas basadas en el
cálculo y la cuantificación, y en donde adquieren mayor trascendencia la
intersección entre medios de comunicación, tecnología y sociedad.
- Por tanto, cuando se habla de datos masivos, se está refiriendo a una generación de datos del orden de los Pb y Eb o superior.
- Bajo este panorama, el sector salud tendrá que incorporar rápidamente estos recursos a su sistema de análisis y diagnóstico, no solo de enfermedades infeccionas sino de cualquier otra, por lo que se espera mejorar el servicio prestado a un paciente o comunidad y preparar a la sociedad ante cualquier eventualidad de pandemia a futuro.
- Para ello, se utilizan herramientas como la inteligencia artificial con el objetivo de procesar y analizar los datos obtenidos para predecir y anticipar los eventos futuros de esa manera (Paterson & Maeve, 2018, p. 3).
- Map Reduce [8] es un modelo de programación asociado a las implementaciones que requieren procesamiento y generación de grandes bases de datos.
- De esta manera es necesario explicar qué es el análisis de grandes cúmulos de datos y cómo esta herramienta puede beneficiar o perjudicar a las sociedades en general y a los individuos en particular.
En este contexto, las redes sociales, al mismo tiempo que alimentan los algoritmos del big data, nutren al periodismo en tanto que potencial fuente de información. De hecho, las posibilidades que entrañan Internet y las redes sociales aportan, en opinión de Rubio-Lacoba (2005), una función verificadora o rectificadora en escasos minutos de la cual los periodistas, en su función de autodocumentalistas, han sabido aprovecharse de ello y cada vez con mayor profusión. La IA en conjunto con el Big Data han demostrado ser herramientas fundamentales para ayudar al sector salud a detectar y controlar este virus con cierto margen de éxito, permitiendo procesar grandes cantidades de datos estructurados y no estructurados con alto grado de complejidad, que al ser combinados con algoritmos propios de la IA permiten realizar predicciones basado en patrones históricos y bucles de retroalimentación, entre otros. También, con el aprendizaje que se está gestando permanentemente ya hay desarrollos de algoritmos predictivos que permiten identificar poblaciones que son o serán más propensas a ser infectadas por la COVID-19, incluso determinar en términos probabilísticos quienes podrán padecer complicaciones graves con base en parámetros como edad, género, historial clínico, masa corporal, entre otros.
Hombre y blanco: el ‘big data’ revela qué artistas dominan los museos
También se emplea para el desarrollo más rápido de medicamentos, incluyendo el estudio de reutilización de medicamentos que han sido probados para el tratamiento de otras enfermedades. Para ello, se construyen gráficos de conocimiento y se realizan análisis predictivos de interacción entre fármaco y proteínas virales (Zhou, Park, Choi & Han, 2018) e interactomas virus-huésped (Yang et al., 2019), plegamiento predictivo de proteínas (Ivankov & Finkelstein, 2020), comprensión de la dinámica molecular y celular del virus, predicción y propagación de una enfermedad basado en patrones, e incluso predecir curso de ciencia de datos una próxima pandemia zoonótica. Con esto en mente, los costos de investigación y desarrollo se reducen ostensiblemente, viéndose reflejados en el valor final del medicamento para el paciente y sector salud en general. Las herramientas a emplear para este tipo de caso son los modelos generativos, que se sustentan en el aprendizaje automático y en el aprendizaje profundo, que permiten trabajar gran cantidad de datos relacionados con la dinámica molecular y propiedades fisicoquímicas de un fármaco, facilitando la identificación de miles de nuevas moléculas candidatas a ser sintetizadas y probadas.