Indalo
  • Servicios
    • Desarrollo a Medida
    • Gestión documental
    • Quality Assurance
    • Automatización
  • Nosotros
    • Equipo
    • Historia
    • Cultura
  • Carreras
  • Noticias
  • Contacto
  • Menu Menu

Entradas

News, noticias-1

Gestión de datos: tendencias para 2022

Desde el año 2020, diversas organizaciones vieron la necesidad de digitalizarse, una acción cada vez más frecuente entre compañías de diferentes sectores, siendo prácticamente imposible evitar el uso de bases de datos y Big Data. Actualmente, es necesario disponer de la capacidad de obtener información a partir de los datos, siendo este aspecto clave para cualquier organización exitosa. Por lo tanto, cualquier arquitectura de información debe seguir siendo la base de datos.

HTAP: Big data más base de datos

En el ámbito de las aplicaciones, el concepto de Big Data y bases de datos se unen. Así pues, para las aplicaciones con un único sistema se puede realizar generación, procesamiento, almacenamiento y consumo de datos, que tiene como resultado una mejor experiencia de los usuarios.

Llegado este punto, surge el procesamiento híbrido de transacciones o análisis, también conocido por HTAP, que mejora el rendimiento y es capaz de sincronizar millones de transacciones diariamente, mejorando como ya se ha dicho la experiencia del usuario.

Próximamente, se espera que esta tendencia crezca, ya que también las bases de datos HTAP pueden emplearse como almacenes de datos, manejar cargas de trabajo de procesamiento transaccional en línea (OLTP) y responder rápidamente a solicitud de análisis de Big Data en tiempo real.

Un sistema nativo de la nube más distribuido

El hecho de que cada vez más compañías están adoptando una infraestructura basada en la nube, implica que se están trasladando sus aplicaciones de procesos comerciales junto con sus aplicaciones y sus datos críticos.

Para 2022, se estima que el 75% de las bases de datos migrarán a una plataforma en la nube. Por lo tanto, las organizaciones requieren servicios y soluciones en la nube que administren su arquitectura nativa, que permitan que los procesos empresariales sean más dinámicos.

Por consiguiente, un sistema nativo de la nube significa que las aplicaciones o procesos se ejecutan en contenedores de software como unidades aisladas, los procesos se gestionan mediante orquestación central para mejorar el uso de recursos y reducir los costes de mantenimiento y las aplicaciones están débilmente acopladas. Estas características hacen referencia a un sistema altamente dinámico compuesto por procesos independientes que trabajan de forma conjunta para proporcionar un valor empresarial, es decir, un sistema distribuido.

Así pues, combinar técnicas de procesamiento distribuido, sin una configuración de infraestructura pesada, permitirá que los usuarios puedan disfrutar de una alta disponibilidad gracias a las bases de datos nativas en la nube eficientes.

Plataformas de base de datos Inteligente y autónoma

Por otro lado, las plataformas de base de datos autónoma (Self-Driving Database Platform, SDDP) proporciona capacidades de auto conducción a las bases de datos que se ejecutan en una plataforma, de esta manera se permite que las bases de datos perciban, tomen decisiones y realizan optimizaciones de forma independiente con el fin de generar un servicio continuo.

Asimismo, las SDDP traen consigo otras capacidades como la administración de recursos físicos, la administración de la vida útil de una instancia, la seguridad y el escalado automático.

Se espera que en el futuro las bases de datos sean totalmente autónomas, permitiendo automatizar las hojas de ruta completamente en una base de datos. No obstante, resulta complejo la automatización absoluta cuando a menudo las compañías cambian de base de datos, dificultando la automatización de todo el proceso.

Actualmente, se puede emplear la IA para diferentes escenarios en el ámbito de las bases de datos como, por ejemplo, las cargas de trabajo o la aplicación en sistemas tradicionales para ajustar los parámetros y mejorar su escalabilidad, todo ello mediante el uso de algoritmos de aprendizaje automático que garanticen que sean sistemas seguros y se ejecuten sin problemas.

Multimodelo

También, están disponibles las bases de datos multimodelos, estas se caracterizan por ser plataformas de procesamiento de datos que admiten múltiples modelos de datos y definen los parámetros de cómo se organiza la información en una base de datos. La ventaja que trae consigo incorporar varios modelos en una sola base de datos es la posibilidad de que los equipos TI cumplan con varios requisitos de aplicaciones sin necesidad de implementar diferentes sistemas en las bases de datos.

Asimismo, los modelos de datos que pueden acomodar estas bases de datos incluyen los relacionales, jerárquicos y de objetos, además de diferentes estilos de documentos o gráficos, incluidos los que forman parte de las bases de datos NoSQL. Otra característica de este tipo de base de datos es que no almacenan datos de manera uniforme en una estructura de tabla basada en filas, de manera que pueden manejar diferentes formas de datos que no se ajusten al esquema rígido del modelo relacional, incluidos datos no estructurados y semiestructurados.

Sin embargo, en algunas situaciones este enfoque multimodelo puede impedir la integridad transaccional que utilizan los sistemas de administración de base de datos relacionales para mantener consistencia en los datos.

Seguridad incorporada

En cualquier aplicación, interfaz, producto y negocio es requisito necesario y fundamental la seguridad. En la digitalización que se está viviendo es fundamental mantener unos niveles altos de confianza y transparencia, donde se aseguren los datos.

Por ello, técnicas como el cifrado en movimiento con cifrado transparente de datos (TDE), la gestión flexible de claves, el cifrado en reposo, la trazabilidad y la auditoría, son necesarias y obligatorias para cualquier compañía.

Entre las mencionadas, destaca la técnica del TDE, empleada para cifrar los archivos de datos de SQL Server y Azure SQL Database. Además, permite cifrar los datos confidenciales en las bases de datos y proteger las claves que se emplean para cifrar datos con un certificado.

Este tipo de técnica para la seguridad ayuda con las regulaciones y pautas establecidas en la industria y en el ámbito de la ciberseguridad, de manera que sí algún ciberdelincuente trata de robar archivos de datos no podría emplearlos porque necesitaría una clave de acceso a ellos. No obstante, es importante saber que TDE solo agrega una capa de protección para los datos en reposo y los riesgos restantes deben protegerse en el sistema de archivos del sistema operativo y la capa de hardware.

Entre las principales utilidades que proporciona una base de datos a una compañía está agrupar todos los datos de la empresa en un mismo lugar, facilitar que se compartan los datos entre los diferentes departamentos de la compañía, evitar la redundancia y mejorar la organización junto con realizar una interlocución adecuada con los clientes de la empresa. Así pues, si se gestiona adecuadamente una base de datos se podrán obtener ventajas como un aumento de la eficiencia, una simplificación del proceso, mayor seguridad de los datos almacenados y una mayor productividad, entre otras de sus ventajas.

Los estudios de nuevas alternativas para las bases de datos de la nube buscan que el almacenamiento y la computación sean compatibles con una amplia variedad de interfaces de código abierto.

Por ejemplo, con los nuevos tipos de bases de datos se admitirán diferentes modelos de tablas con columnas más anchas o series de tiempo, almacenamiento y análisis de datos estructurados, semiestructurados y no estructurados. Todo ello, tendrá como resultado un rendimiento mayor de los dispositivos inteligentes que requieran almacenamiento de datos de múltiples modelos, el análisis de metadatos, datos de series de tiempo y registros de dispositivos.

En el futuro, se buscará combinar la tecnología blockchain con el fin de proporcionar modificaciones inmutables en los sistemas de bases de datos, y tratar de aprovechar el nuevo hardware para cifrar datos y procesarlos sin necesidad de descifrarlos en las bases de datos.

27 abril, 2022/0 Comentarios/por Editorial
https://indaloinnovation.com/wp-content/uploads/2022/04/istockphoto-1224500457-612x612-1.jpg 452 612 Editorial https://indaloinnovation.com/wp-content/uploads/2021/03/Indalo-pleno-blanco-150.png Editorial2022-04-27 07:53:042022-04-27 07:53:05Gestión de datos: tendencias para 2022
News, noticias-1

Gestión de datos: Edge Computing

El edge computing es un tipo de informática que ocurre en la ubicación física del usuario, de la fuente de datos o cerca de ellas. Esto permite que los usuarios obtengan servicios más rápidos y confiables, y que las empresas puedan aprovechar la flexibilidad del cloud computing híbrido. Con el edge computing, las empresas pueden usar y distribuir un conjunto común de recursos en una gran cantidad de ubicaciones.

¿Cómo utilizan las empresas el edge computing con los centros de datos y la nube pública?

El edge computing es una estrategia que permite extender un entorno uniforme desde el centro de datos principal hasta las ubicaciones físicas cercanas a los usuarios y a los datos. Así como una estrategia de nube híbrida permite que las empresas ejecuten las mismas cargas de trabajo tanto en sus propios centros de datos como en una infraestructura de nube pública (por ejemplo: , Microsoft Azure o Google Cloud), una estrategia de edge computing amplía el entorno de nube a muchas más ubicaciones. En la actualidad, el edge computing se utiliza en muchos sectores, como las telecomunicaciones, la producción, el transporte y los servicios públicos, entre otros. Las razones por las que se implementa esta tecnología son tan variadas como las empresas que la utilizan.

Algunos casos prácticos comunes de edge computing

Muchos casos prácticos de edge computing surgen de la necesidad de procesar datos de manera local e inmediata, porque si se transmiten a un centro para procesarlos, se generan niveles de latencia inaceptables.

Un claro ejemplo de esto puede ser una planta de fabricación moderna. En las fábricas, los sensores del Internet de las cosas (IoT) generan un flujo constante de datos que pueden utilizarse para prevenir averías y mejorar las operaciones. Según una estimación, una planta moderna con 2000 equipos puede generar 2200 terabytes de datos al mes. Es más rápido, y más rentable, procesar ese cúmulo de datos cerca de los equipos, en lugar de transmitirlos primero a un centro de datos remoto. Sin embargo, es mejor si los equipos están conectados a través de una plataforma de datos centralizada. De esa manera, por ejemplo, los equipos pueden recibir actualizaciones de software estandarizadas y compartir los datos filtrados que pueden ayudar a mejorar las operaciones en otras ubicaciones de la fábrica.

Los vehículos conectados son otro ejemplo común de edge computing. Los autobuses y los trenes cuentan con computadoras para realizar un seguimiento del flujo de los pasajeros y de la prestación del servicio. Los transportistas pueden aprovechar la tecnología integrada a sus vehículos para encontrar las rutas más eficientes. Cuando se implementa mediante una estrategia de edge computing, cada vehículo ejecuta la misma plataforma estandarizada que el resto de la flota, lo cual vuelve más confiables los servicios y garantiza la protección uniforme de los datos.

Los vehículos autónomos son otro claro ejemplo de edge computing, ya que implican el procesamiento inmediato de una gran cantidad de información en contextos donde la conectividad puede ser poco estable. Como la cantidad de datos que reciben los vehículos autónomos de los sensores es enorme, estos se encargan de procesarlos a bordo del vehículo, lo cual ayuda a reducir la latencia. Sin embargo, también pueden conectarse a una ubicación central para recibir actualizaciones de software inhalámbricas.

El edge computing también ayuda a que los servicios populares de Internet funcionen con rapidez. Las redes de distribución de contenido (CDN) implementan servidores de datos cerca de los usuarios, lo cual permite que los sitios web más concurridos se carguen rápidamente y que se agilicen los servicios de transmisión de vídeo.

Otro ejemplo de edge computing es lo que sucede en las antenas de telefonía móvil 5G cercanas. Cada vez es más común que los proveedores de telecomunicaciones ejecuten sus redes con la virtualización de las funciones de red (NFV), para lo cual utilizan maquinas virtuales que se ejecutan en sistemas de hardware estándar en el extremo de la red. Estas máquinas virtuales pueden reemplazar a los costosos equipos propietarios. Una estrategia de edge computing permite que los proveedores ejecuten el sistema de software en decenas de miles de ubicaciones remotas, sin sacrificar la uniformidad ni el cumplimiento con los estándares de seguridad. Las aplicaciones que se ejecutan cerca del usuario final en una red móvil también reducen la latencia y permiten que los proveedores ofrezcan servicios nuevos.

¿Cuáles son las ventajas del edge computing?

Con el edge computing, se pueden obtener servicios más rápidos y estables a menor costo. Para los usuarios, significa una experiencia más rápida y uniforme. Para las empresas y los proveedores de servicios, se traduce en aplicaciones de baja latencia y alta disponibilidad con supervisión permanente.

El edge computing puede disminuir los costos de red, evitar las restricciones de ancho de banda, reducir las demoras en la transmisión, limitar la cantidad de errores del servicio y controlar mejor la transferencia de los datos confidenciales. Los tiempos de carga se reducen. Además, los servicios en línea que se implementan más cerca de los usuarios habilitan las funciones de almacenamiento en caché tanto dinámico como estático.

Esta estrategia también beneficia a las aplicaciones que necesitan menores tiempos de respuesta, como las de realidad aumentada y virtual.

Otras ventajas del edge computing incluyen la capacidad para agregar y analizar el big data en las instalaciones, lo cual permite tomar decisiones casi inmediatas. El edge computing reduce aún más el riesgo de permitir el acceso a los datos confidenciales, ya que mantiene toda esa potencia informática en un lugar cercano. Gracias a ello, las empresas pueden aplicar las prácticas de seguridad o cumplir con las políticas normativas.

Los clientes empresariales aprovechan la flexibilidad y los costos relacionados con el edge computing. Al mantener la potencia informática en un lugar cercano, las ubicaciones regionales pueden seguir funcionando independientemente del sitio central, incluso si este último deja de funcionar. Además, al mantener la potencia de procesamiento informático más cerca de su fuente, se reduce considerablemente el costo que debe pagar por el ancho de banda para trasladar los datos de un lado a otro entre los sitios regionales y centrales.

Una plataforma de edge computing aporta uniformidad a las operaciones y al desarrollo de las aplicaciones. A diferencia de los centros de datos, debe admitir la Inter operatividad entre una mayor cantidad de entornos de hardware y software. Una estrategia de edge computing eficaz también permite que los productos de varios proveedores funcionen juntos en un ecosistema abierto.

¿Cuáles son los desafíos del edge computing?

El edge computing puede simplificar un entorno de TI distribuido, pero su infraestructura no siempre es fácil de implementar y gestionar.Incorporar servidores de edge computing a varias ubicaciones pequeñas puede ser más complejo que aumentar la capacidad equivalente en un solo centro de datos principal. Las empresas de menor envergadura pueden tener dificultades a la hora de gestionar el aumento de los costos de las ubicaciones físicas.

Por lo general, los sitios de edge computing se encuentran en lugares remotos y no cuentan con la experiencia técnica suficiente en el lugar. Si se produce algún error en las instalaciones, debe tener una infraestructura que los empleados locales sin experiencia técnica puedan reparar con facilidad. Además, un pequeño grupo de especialistas ubicados en otro lugar debe poder gestionarla de manera centralizada.

Es necesario que las operaciones de gestión del sitio se puedan replicar en todos los sitios de edge computing, para simplificar la gestión y facilitar la resolución de problemas. Los desafíos surgen cuando el software se implementa de distintas formas en cada sitio.

La seguridad física de los sitios de edge computing suele ser mucho menor que la de los entornos centrales. Al implementar una estrategia de edge computing es necesario considerar un mayor riesgo de situaciones maliciosas o accidentales.

A medida que las fuentes y el almacenamiento de datos se distribuyen en muchas ubicaciones, las empresas necesitan una infraestructura horizontal común que abarque toda su infraestructura de TI, lo cual incluye los sitios en el extremo de la red. El edge computing presenta desafíos de infraestructura únicos, incluso para las empresas que suelen operar en varias ubicaciones geográficas. Las empresas necesitan soluciones de edge computing que:Se puedan gestionar con las mismas herramientas y procesos que su infraestructura centralizada. Esto incluye la automatización de la preparación, la gestión y la organización de cientos y a veces decenas de miles de sitios con muy poco personal de TI, si es que lo hay.

Satisfagan las necesidades de los distintos niveles del edge computing que tienen diferentes requisitos, como el tamaño del espacio del hardware, los entornos complejos y el costo.

Ofrezcan la flexibilidad necesaria para utilizar las cargas de trabajo híbridas que consisten en máquinas virtuales, contenedores y nodos sin sistema operativo, los cuales ejecutan las funciones de red, la transmisión de vídeo, los juegos, la inteligencia artificial y el aprendizaje automático (IA/ML) y las aplicaciones importantes para la empresa.

Garanticen que los sitios de edge computing sigan funcionando si se producen errores en la red. 

Pueden funcionar sin inconvenientes con elementos de distintos proveedores. Ningún proveedor puede ofrecer una solución completamente integral.

25 febrero, 2022/0 Comentarios/por Editorial
https://indaloinnovation.com/wp-content/uploads/2022/02/What-is-Edge-Computing.png 440 800 Editorial https://indaloinnovation.com/wp-content/uploads/2021/03/Indalo-pleno-blanco-150.png Editorial2022-02-25 09:47:392022-02-25 09:47:41Gestión de datos: Edge Computing
News, noticias-1

2022: si los datos son el petróleo, machine learning es el motor

El aprendizaje automático (o machine learning, ML) es una rama de la inteligencia artificial (IA) que potencia a los datos y los negocios y cada vez resulta más accesible para las personas que no son especialistas. Los algoritmos de ML utilizan datos históricos como insumo de entrada para anticipar nuevos valores de salida

y de esta forma permitir que las aplicaciones de software sean más precisas en la predicción de resultados. El machine learning es importante porque brinda a las empresas una visión de las tendencias en el comportamiento del cliente y los patrones operativos comerciales, además de respaldar el desarrollo de nuevos productos. De hecho hoy se convirtió en un diferenciador competitivo significativo para muchas empresas.

Una encuesta mundial realizada entre profesionales de datos, reflejo que la adopción de métodos de aprendizaje automático en las organizaciones es del 45%, aunque las tasas varían mucho entre países. La adopción también varía según el tamaño de la empresa: las más grandes tienen tasas más altas (61%) que las medianas (45%) y pequeñas (33%).

Según el informe “las organizaciones están aprovechando el poder de los métodos de aprendizaje automático para ayudarles a extraer información de mejor calidad, aumentar la productividad, reducir los costos y obtener más valor de sus datos”.

La mayor accesibilidad actual del aprendizaje automático tiene mucho que ver con el crecimiento de la ciencia de datos. Este último es  el campo de estudio y de aplicación práctica que le da sustento al ML y que además permitió su emergencia. De hecho como dice Forbes “si los datos son el petróleo de la era de la información y el ML es el motor, entonces la ciencia de datos es el equivalente a las leyes de la física que provocan la combustión y el movimiento de los pistones”.

Democratización de datos

Hasta hace diez años la ciencia de datos se consideraba una asignatura de nicho, que atravesaba la estadística, matemáticas e informática y que se impartía en un puñado de universidades. Hoy en día, en cambio, su importancia para el mundo de los negocios y el comercio está bien establecida.
Con su desarrollo cada vez mayor, esta disciplina favorece la paulatina democratización del acceso a los datos, logrando una cultura empresarial basada en datos. En consecuencia se logra un mayor aprovechamiento de la información logrando una visión 360 del negocio que habilita la toma de decisiones inteligentes, cosa que veremos impactar en distintas tendencias que se verán en 2022.

Aprendizaje automático automatizado

Una de estas tendencias que será clave el año entrante es la del aprendizaje automático automatizado, habitualmente abreviado como autoML. Los desarrolladores de soluciones de autoML tienen como objetivo “crear herramientas y plataformas que cualquier persona pueda utilizar para generar sus propias aplicaciones de ML”.

En particular el autoML está dirigido a personas cuya experiencia y conocimientos especializados los colocan en una posición ideal para desarrollar soluciones a los problemas más urgentes en sus campos de experties, pero que a menudo, carecen del conocimiento de codificación necesario para aplicar la IA a esos problemas.

La experiencia indica que hasta aquí, una gran parte del tiempo de un científico de datos debe dedicarse a la limpieza y preparación de datos, tareas necesarias, pero que no aportan valor real al negocio. Por ejemplo, un estudio reciente encontró que los científicos de datos dedican aproximadamente el 45% de su tiempo a tareas de preparación de datos, incluida la carga y limpieza de los mismos. De alguna forma el autoML viene a solucionar este problema, al propiciar una gestión de datos automatizada. En su forma más básica implica automatizar esas tareas, pero también significa -cada vez más- construir modelos y crear algoritmos y redes neuronales.

El objetivo de autoML es que muy pronto cualquier persona con un problema que deba resolver o una idea que quiera probar, pueda aplicar el aprendizaje automático a través de interfaces simples y fáciles de usar. Es decir, que las personas sin conocimientos específicos de ML podrán aprovechar los algoritmos y los avances del aprendizaje automático para desarrollar soluciones que resuelvan problemáticas de negocio, cada vez con mas frecuencia, sin necesidad de preocuparse por comprender su funcionamiento interno.

En 2022 se espera que se den pasos importantes para que usar machine learning sea algo cotidiano y así permitir que cada vez más usuarios ligados a la parte comercial de las empresas puedan tomar decisiones inteligentes basadas en datos y obtener una visión de 360 grados del negocio.

7 febrero, 2022/0 Comentarios/por Editorial
https://indaloinnovation.com/wp-content/uploads/2022/02/GettyImages-1202870693.jpg 1218 2113 Editorial https://indaloinnovation.com/wp-content/uploads/2021/03/Indalo-pleno-blanco-150.png Editorial2022-02-07 08:21:282022-02-07 08:21:292022: si los datos son el petróleo, machine learning es el motor
News, noticias-1

7 tendencias de analítica y gestión de datos 2021

Las compañías deberán prestar especial atención el en 2021 si quieren adaptarse a la nueva normalidad. La pandemia ha acelerado la formación en nuevas competencias digitales que se consolidarán el próximo año.
El machine learning, la inteligencia artificial ética, la moral de los datos o el 5G protagonizarán la era post-Covid-19.

  • La seguridad ocupará un lugar central: las empresas siguen anteponiendo la tecnología a la estrategia cuando se trata de la nube. La nube pública todavía funciona con post-its y contraseñas sin una respuesta clara sobre quién es el responsable de la seguridad. Hay una gran tecnología habilitadora, pero las organizaciones no han pensado en cómo usarla adecuadamente para su beneficio. En 2021 la seguridad y el gobierno del dato ocuparán un lugar central. Actualmente, el usuario imagina la nube como una solución rentable y eficiente, pero aún le falta el modelo de gobierno. El próximo año, habrá un mayor acercamiento hacia este gobierno del dato.
  • El año del machine learning: las compañías seguirán lidiando con un aumento exponencial de las cantidades de datos y de las complejidades en las nuevas tecnologías. El aprendizaje automático será fundamental para las empresas si quieren aprovechar al máximo esos grandes volúmenes de información. En 2021, la capacidad de una empresa para confiar en su modelo, en la medida en la que pueda producir acciones a partir de la información derivada de la inteligencia artificial, será determinante en su capacidad para sobrevivir.
  • Mayor preocupación por la ética de la inteligencia artificial: va a ser fundamental durante los próximos doce y veinticuatro meses. Hoy en día, las conversaciones giran en torno al anonimato de datos, pero el discurso se volverá más profundo. En 2021, la inteligencia artificial ética y la gobernanza de datos se van a aplicar a diferentes áreas como el rastreo de contactos, los vehículos conectados y los dispositivos inteligentes, así como a los perfiles digitales personales, con respecto al aumento de la huella cibernética que conduce a preguntas de privacidad.
  • La moral de los datos será decisiva: cada vez más personas son conscientes del poder de los datos y de la responsabilidad de su tratamiento por parte de las empresas. En 2021 veremos a más compañías implementar controles de ética de datos en el desarrollo de software. Y es que confirmar que lo que se desea desarrollar es moral va a estar al mismo nivel de importancia que garantizar la rentabilidad.
  • Las geografías emergentes liderarán la adopción del 5G: en los smartphones, pero la mayoría de las personas no se dan cuenta de que su teléfono en realidad no funciona a esta capacidad. Esto se debe a que, si bien, el smartphone puede admitir 5G, no sirve de nada sin una red adaptada. Los proveedores de telecomunicaciones están empezando a actualizar la tecnología de red para admitirla. En esta instalación de infraestructura 5G se da la paradoja que las geografías emergentes podrán superar el próximo año a las localizaciones convencionales. Cloudera explica que es mucho más sencillo instalar el último sistema tecnológico en un lugar nuevo que tener que revisar el sistema actual.
  • Redes eléctricas en evolución para nuevas fuentes de energía: es probable que la energía solar, la eólica y las baterías se conviertan en las mayores fuentes de energía en esta década. En 2021, comenzaremos a ver un cambio en las redes masivas que se usan hoy en día ya que la sociedad virará hacia el uso de más redes o microrredes comunitarias e incluso hacia sistemas individuales para hogares. Esta tendencia supondrá nuevos volúmenes de datos, más cercanos al consumidor, que deberán ser gestionados.

30 noviembre, 2021/0 Comentarios/por Editorial
https://indaloinnovation.com/wp-content/uploads/2021/11/Solar-1.jpg 500 750 Editorial https://indaloinnovation.com/wp-content/uploads/2021/03/Indalo-pleno-blanco-150.png Editorial2021-11-30 06:44:192021-11-30 06:44:207 tendencias de analítica y gestión de datos 2021

Siguenos en LinkedIn

Lucas Goyeneche

Últimos proyectos

  • Gestión de datos: tendencias para 202227 abril, 2022 - 7:53 am
  • Gestión de procesos de negocio: un pilar fundamental para cualquier empresa.30 marzo, 2022 - 10:38 am
  • Tecnología y empresas: estas son las principales predicciones para 202215 marzo, 2022 - 11:19 am
  • Metaverso, la nueva atracción para los gigantes tecnológicos9 marzo, 2022 - 9:02 am

Categorías

  • News
  • noticias-1

Link to: Inicio

Localización

Calle González Garbín, 19 Local, 04001, Almería, España.
Software Development Center

Encuéntranos

Todos los derechos reservados Indalo

Política de Cookies

Scroll to top

Bienvenido a Indalo! Con el objetivo de proporcionarle una experiencia más relevante, utilizamos cookies para habilitar algunas funciones del sitio web. Las cookies nos ayudan a identificar qué artículos te interesan más; te permite compartir fácilmente artículos en las redes sociales; nos permite mostrar contenido, trabajos y anuncios adaptados a tus intereses y ubicaciones; y proporcionar muchos otros beneficios del sitio. Haz clic para Aceptar y guardaremos tu configuración (la cual puedes actualizar en cualquier momento). Para obtener más información, por favor revisa nuestra Política de Cookies.

Indalo
Resumen de privacidad

Con el objetivo de proporcionarle una experiencia más relevante, utilizamos cookies para habilitar algunas funciones del sitio web. Las cookies nos ayudan a identificar qué artículos te interesan más; te permite compartir fácilmente artículos en las redes sociales; nos permite mostrar contenido, trabajos y anuncios adaptados a tus intereses y ubicaciones; y proporcionar muchos otros beneficios del sitio. Haz clic para Aceptar y guardaremos tu configuración (la cual puedes actualizar en cualquier momento). Para obtener más información, por favor revisa nuestra Política de Cookies.

Cookies necesarias

Las cookies necesarias deben estar activadas para guardar la configuración de preferencias de cookies.

Si desactiva esta cookie, no podremos guardar sus preferencias. Esto significa que cada vez que visite este sitio web tendrá que activar o desactivar las cookies de nuevo.

Cookies de empresas de terceros

Esta página web usa Google Analytics para recolectar información anónima como el número de visitantes y las páginas más visitadas.

Dejar activadas estas cookies ayudan a mejorar nuestro sitio web.

Por favor, activa primero las cookies estrictamente necesarias para que nosotros podamos guardar tus preferencias.