Skip to main content

· 2 min read

The framework for which all this is envisioned and processed with ever growing high engineering level, and for which the purpose is given, is then this ever searched strive for balance, to somehow use the intellect to describe a process of mental analysis regarding any subject, while sorting out the biasing (maintaining robustness and endurance) over unknown dynamics described in temporal data collected from sensors. And this could be understood as a machinery to stay tuned one (or infinite) input(s) both.

Briefly, we look forward to create a system that can transform some sort of input information (encoded in bits) into helpful insights regarding the dynamics of the inputed data, of any system. Now, the output of such function over time is used to alter the dynamics of the system it is analyzing via some actuator of appropriate field.

Important information can be obtained both in open and closed loop (while having an appropriate control function) that is structured in arrays of temporal and process features, a map of the spatial state of the relationships between the nodes.

Using the approach of the telecommunication experiences, analysis within the frequency domain can be carried out. Yet, some mathematical analysis can be done with dynamic programming and state space lmi.

Diferente mathematical approaches with a concentric point that defines the overall dynamical description of the whole. Any level, cosmos, as with the definition of universal approximation and the determinism with laplace.

Therefore, the core purpose of this enterprise is to find this prime definition, the place where all this practical and theoretical definitions of any sort of dynamics converges, where a mathematical concept can be structured to define multiple and highly intertwined levels of processing nodes as well as simple siso systems.

· One min read

Generate series of self auto activity in a background process. Passive workers that deliver some sort of products useful for the self development -a way of self optimization in time-. This is the return of various parallel controls (either modern approaches such as disturbance rejection -for a determined wanted output- or intelligent -given by the line drawn by inferential statistics, data science, machine, deep and reinforced learning, thus, ai, per se; in a direct human sense, this shall be intrinsec self developed paths to control ourselves -an evolutionary effect-, for the control -of the body-, needed to aquire the enhance of mind) that dispose an specific trait development, and of which, in a macro scale -contemplating the ever increasing parallel and/or series computation, of which the (multiple) control run is obtained-, a optimized natural (for the human)/artificial (for the digital human) selection. Now, the self conscious for a natural approach, or the metrics of the digital system, for specifics ways of behavior, that direct a sustained development in time, life (either natural or artificial), is the challenge for the design, therefore, the key for the perfect design.

· One min read

Carl's Jung... from an early age, thus, predicting a subject behavior over a determined stimuli, and it's deviations under different approaches to it, could then provide a structured deterministc model for human behavior. It's further mathematical approximation could show how human cognition can be predicted and replicated. Under a 1:1 deployment of an artificial mind, the behavior of the subject (hopefully provided with limbs) could be determined, thus, having a perturbances rejection neural network

· One min read

Use block chain to develop secure and transparent data transfer or custody transfer of process data with trust and trazable usability.

Block + Chain

The way it works is that transaction data are bundled into digital blocks and each new block is linked to the previous block, creating a continuous chain. Blocks that are already submitted to the ledger are immutable and cannot be changed. However, they can be updated by appending a new set of data (blocks) to the chain that overrides the previous state of the data. All transactions are cryptographically signed and identified so that all parties can verify who did what in the network.

Tracking System

The definition of blockchain can be simplified to a general statement, that it is an audit or history tracking system.

· 2 min read

As a Mechatronics Engineer working in the development of A.I. solutions in the Oil & Gas field, looking for optimal approaches to make processes efficient and safe, to predict assets behavior and proactively act on critical events. With the use of CV secure and controlled environments could be established provided by a holistic approach of temporal features analysis (both from the process variables as well as RGB captures of the physical asset). Even greater solutions could be developed to ensure safe and optimal process in critical environments like an Oil extraction/production facility that ultimately could be directed to mitigate the environmental impact.

In a country like Colombia, the implementation of novel technologies is still lagging and with this program I could get closer to the state of the art so as to get an edge and use it to decisive impact my career in this country, hopefully opening new windows to keep learning and finding engineered solutions to practical challenges in the field. Having this kind of opportunity would serve as a seed for the technical growth of locations around the globe and in my case, a positive impact, in a land with a highly diverse ecosystem where optimal solutions are needed to further preserve the frail balance

· 3 min read

Regular users of internet services (free or paid), that is, nowadays allmost any human (?), more and more each day, so you might say that in a close future (15-20 years) everyone will be connected to a global network. For service providers that is a huge market niche in all sorts of topics, yet, all the underliying physical world and the inner workings of not only the network but also the infrastructure of industries that create all the goods, the systems built on top of such goods, the assets created and production of services, that convert materials to assets, that in a huge chain of process, can also be turned into digital assets.

Global Connectivity Expansion: Project the growth of global internet connectivity over the next 15-20 years. Consider factors like the expansion of infrastructure in developing regions, advancements in technology (e.g., satellite internet), and socio-economic factors that might influence access.

Industry Infrastructure and Internet of Things (IoT): Explore how industries are increasingly incorporating IoT devices and smart technologies into their operations. This integration generates vast amounts of data, which can be analyzed for optimization, predictive maintenance, and creating new services or products.

Data as an Asset: Discuss how data is becoming a key asset for companies. This includes not just user data from online activities, but also operational data from various industries. Emphasize on data analytics, big data technologies, and machine learning algorithms that transform raw data into valuable insights.

Privacy and Regulation: Address the growing concerns around data privacy and the regulatory landscape. With more data being collected, the importance of ethical data usage and compliance with laws like GDPR and others around the world becomes paramount.

Monetization Models: Delve into various data monetization models. This could include direct monetization (selling data or insights), indirect monetization (using data to improve products/services or marketing strategies), and data as a service (DaaS). Each model can have examples and case studies for better understanding.

Challenges and Future Outlook: Discuss the challenges in data monetization, such as data quality, data integration from multiple sources, and keeping up with rapidly evolving technologies. Also, speculate on future trends, like the role of AI in data analysis and the potential of emerging technologies.

Impact on Society and Economy: Reflect on how data monetization strategies might impact society and economy. This includes job creation in data science and analytics fields, ethical considerations, and the potential for data-driven decision-making to revolutionize industries.

· One min read

For stability,

Phase margin > 0. Good value: 45 - 60 deg

Gain margin > 0. Good value: 5 - 10 dBs

Phase margin: Measured as the difference between the phase angle and -180° when the magnitude of the open loop system crosses 0dBs.

Gain margin: Indicates how much the gain at the phase crossover frequency can be increased before the system is driven to instability

· 2 min read

So just remember that Git and GitHub are not the same. Git is a version control tool, and GitHub is a collaboration tool that happens to use Git, and provides a framework for a specific type of development cycle that is very well established and familiar to many people.

Git is both.

It is distributed in the sense that anyone with a clone of a particular repository is theoretically "equal" to any other developer with a clone of the same repo. One of the main reasons this approach is used is to allow any developer to continue their work without the need to always be connected to a centralized master server. If you have your own complete copy, and it's "equal" to any other, you can develop against it and sync up later.

Much of the same applies to explain why it is decentralized. One of the core concepts is that there is no "main" server. The problem with that is, in many situations (like a software engineer for a large company), there really is a need to have a centralized master. It's not that Git isn't meant for this type of workflow (clone --> develop --> commit --> push to central repo), but rather that it doesn't force it upon you. Since that has been such a ubiquitous way of working, it's become the norm to use GitHub on top of Git to provide the desired structure to enable this type of development cycle.

Also, git can communicate with any host, it is in no way dependent on GitHub to provide centralization, even though we often treat it as if that were the case. Git can use SSH, HTTP(S), and even it's own proprietary protocol to push and fetch data from a repo on any other system, provided the user has the ability to log in to that host. This is not particularly comparable to blockchain.

· 3 min read

Mediante la implementación efectiva de soluciones IIoT se lograra realizar la transmisión de información de funcionamiento de plantas y procesos de producción y transformación e industria discreta. La aplicación de telemetría mediante dispositivos satelitales (Orbcomm) y transmisión segura por IP con Siemens Ruggedcom permite tener arquitecturas de comunicación robustas que aseguran la transmisión correcta de datos. Usando dispositivos Edge como Siemens Nano o Iot2040 se logra establecer el vinculo entre el campo y la nube y mediante plataformas como Mindsphere o AWS IoT se logra captar la información y guardarla en bases de datos redundantes donde el activo mas importante estará seguro y con disponibilidad completa. El tratamiento y procesamiento de datos se desarrolla con algoritmos y pipelines establecidos para optimizar el aprendizaje supervisado. Por ultimo, usando librerías novedosas de machine learning como tensorflow, el desarrollo, ejecución y despliegue de redes neuronales profundas se facilita lo que permite lograr sistemas inteligentes de forma rápida y optima para la industria.

Usando telemetría satelital sobre reconectadores en lineas de distribución se transmite de forma efectiva datos para usar con redes neuronales recurrentes y convolucionales donde se lograra realizar un análisis profundo del comportamiento y la dinámica temporal de sistemas energéticos, para predecir comportamiento, detectar anomalías y determinar periodos óptimos de mantenimiento. La telemetría se logra usando modems satelitales de Orbcomm para tener disponibilidad completa en estaciones remotas y el procesamiento y analítica se realiza con computación en la nube de AWS con Siemens Mindsphere

Live Editor
function Clock(props) {
  const [date, setDate] = useState(new Date());
  useEffect(() => {
    const timerID = setInterval(() => tick(), 1000);

    return function cleanup() {
      clearInterval(timerID);
    };
  });

  function tick() {
    setDate(new Date());
  }

  return (
    <div>
      <h2>It is {date.toLocaleTimeString()}.</h2>
    </div>
  );
}
Result
Loading...
import React, { useState, useEffect } from 'react';

const IoTDataSimulator = () => {
const [temperatureData, setTemperatureData] = useState([]);

// Function to simulate data generation
const generateData = () => {
const newData = Math.random() * 30; // Random temperature between 0 and 30
setTemperatureData(prevData => [...prevData, newData]);
};

useEffect(() => {
const interval = setInterval(generateData, 1000); // Generate new data every second
return () => clearInterval(interval);
}, []);

return (
<div>
<h1>IoT Temperature Data</h1>
<ul>
{temperatureData.map((data, index) => (
<li key={index}>{data.toFixed(2)}°C</li>
))}
</ul>
</div>
);
};

export default IoTDataSimulator;

import React, { useState, useEffect } from 'react';

const SimplePredictiveModel = () => {
const [iotData, setIotData] = useState([]);
const [nextPrediction, setNextPrediction] = useState(null);

// Function to simulate IoT data generation
const generateIotData = () => {
const newData = Math.random() * 30; // Random data between 0 and 30
setIotData(prevData => [...prevData.slice(-4), newData]); // Keep the last 5 data points
};

// Function to predict the next value
const predictNextValue = (data) => {
if (data.length < 5) return null;

// Calculate the average change over the last 4 intervals
let totalChange = 0;
for (let i = 1; i < data.length; i++) {
totalChange += data[i] - data[i - 1];
}
const averageChange = totalChange / (data.length - 1);

// Predict the next value
return data[data.length - 1] + averageChange;
};

useEffect(() => {
const interval = setInterval(() => {
generateIotData();
setNextPrediction(predictNextValue(iotData));
}, 1000);

return () => clearInterval(interval);
}, [iotData]);

return (
<div>
<h1>IoT Data and Prediction</h1>
<p>Latest Data: {iotData[iotData.length - 1]?.toFixed(2)}</p>
<p>Predicted Next Value: {nextPrediction?.toFixed(2)}</p>
<ul>
{iotData.map((data, index) => (
<li key={index}>{data.toFixed(2)}</li>
))}
</ul>
</div>
);
};

export default SimplePredictiveModel;


import React from 'react';
import './App.css';
import SimplePredictiveModel from './SimplePredictiveModel';

return (
<div className="App">
<header className="App-header">
<SimplePredictiveModel />
</header>
</div>
);


· 8 min read

Mediante la digitalización de instrumentos y analizadores se logra capturar la dinámica de procesos industriales en series de tiempo almacenadas en bases de datos. Toda esta información es valiosa pues intrínsecamente incluye relaciones entre las variables de proceso e indicadores de producción y/o efectividad. Estos datos pueden estar registrados en frecuencias desde mili(en incluso micro)segundos hasta minutos y horas, dependiendo de la necesidad del proceso y a lo largo de días y meses el tamaño de esta información (y la cantidad de puntos en el tiempo) crece de gran forma. Esta vasta cantidad de datos hace posible que el empleo de algoritmos de aprendizaje automático, en particular, aprendizaje profundo (deep learning) sea plausible y se puedan desarrollar análisis sobre condiciones de proceso y predicciones de comportamiento como también ayudar a tomar decisiones criticas de forma mas inteligente y ágil.

Emplear este tipo de tecnologias se hace imperativo para mantener la competitividad a medida que se fortalece y se impulsa mas y mas la industria 4.0 en el país. No sobra resaltar algunos puntos importantes de esta cuarta revolución industrial que empieza a tomar forma en Colombia y que mediante servicios como los que proveemos en INSA facilitamos el acceso a tecnologías de vanguardia para mejorar y automatizar procesos:

  • Estandarización
  • Manejo de sistemas complejos
  • Infraestructura de telecomunicaciones
  • Seguridad y protección (de datos e infraestructura digital)
  • Eficiencia de recursos

El impacto de la inteligencia artificial se ve favorecido por metodologías y arquitecturas que distribuyen la carga de transferencia y análisis de información de forma efectiva. En particular, con el IIoT (Industrial Internet of Things) donde se encuentran tres capas o niveles, a saber, el nivel edge (1), donde se recoge la información de diversos componentes y maquinas de la industria, el nivel de plataforma (2), donde se procesa la información obtenida en la capa edge para proveer realimentacion operativa de forma rápida y segura, y el nivel de empresa (3), donde se analiza a fondo la información obtenida en el nivel de plataforma para proveer soporte de alto nivel para toma de decisiones.

Distribuyendo de esta forma, los algoritmos de aprendizaje supervisado se pueden implementar sobre plataformas en la nube, disminuyendo el costo operacional para el despliegue de metodologías inteligentes, pues son algoritmos computacionalmente costosos, que pueden ser ejecutados remotamente, con servicios web especializados sin que se afecte la operación en planta.

Es importante reconocer las limitaciones que estos algoritmos presentan, pues, aunque existe bastante expectativa frente a lo que pueden hacer, no pueden aun reemplazar las labores o la capacidad analítica que un ser humano tiene. En breve, las metodologías de aprendizaje profundo sirven actualmente para dar un nivel extra de análisis para toma de decisiones informadas; también proveen una capa de automatización para manejar y extraer patrones relevantes de grandes volúmenes de datos, reduciendo en gran manera el tiempo empleado para entender la información que se extrae de planta. En cuestión de algoritmos para predicción de series de tiempo, es importante resaltar que los datos temporales pasados no necesariamente representan causalidad de eventos futuros, y el empleo de inteligencia artificial para predecir eventos temporales futuros esta basado en los patrones que la red neural ha encontrado sobre los datos proveídos y es relativo a la cantidad de datos y la calidad de estos que la predicción se vuelva mas o menos precisa.

Capturar datos de campo es entonces el primer paso para empezar a emplear estas tecnologias que permiten optimizar procesos y encontrar patrones que permitan mejorar la eficiencia. En ese sentido, implementar instrumentos digitales y concertadores de señales a nivel de planta es fundamental. Con las señales de mediciones que representan variables importantes para el proceso digitalizadas es entonces posible usar dispositivos edge Siemens como el Ruggedcom RX1400, un dispositivo multiprotocolo que facilita la comunicación con la nube para transferir los datos a servicios de procesamiento y almacenamiento dedicados como AWS de forma segura, mediante encriptacion de 128 bits. Dependiendo de la necesidad, los requerimientos críticos del proceso y las facilidades de comunicación, la transferencia de información se puede hacer mediante internet, donde se tendría latencia minima; también es posible usar los servicios LTE o GSM para telemetría; en locaciones remotas con restricciones de comunicacion, la telemetría satelital de Orbcomm es una solución factible para lograr telecomunicaciones M2M e implementar IIoT en cualquier ámbito e industria. Las alternativas y soluciones para cada requerimiento, por especial que sea, existen y esta estandarización es la que nos permite llevar soluciones digitales a lo largo y ancho del pais e incluso mas allá de sus fronteras.

Una vez se tiene los datos de campo extraídos, el almacenamiento de estos crecientes volúmenes de información requieren una forma practica, segura y accesible. Los servicios de almacenamiento de AWS RDS permiten tener disponibilidad completa de los datos reservados con altos estándares de seguridad en una nube privada. Usando el servicio de virtualizacion AWS EC2 se puede construir un terminal con IP fija para acceder a visualización en tiempo real de los datos desde cualquier lugar con una conexión a internet. Ahora bien, usando AWS Sagemaker se llega al punto que mayor impacto al negocio genera y por el cual todo el trabajo de digitalizar instrumentos, generar canales de telecomunicacion y usar servicios de almacenamiento cobra valor mas allá de la telemetría y la visualización remota de planta.

Mediante Sagemaker se tiene una plataforma que encapsula todo el ciclo de vida de una solución de inteligencia artificial, desde la creación de un modelo usando cuadernos Jupyter sobre servicios de procesamiento con GPU y TPU dedicados para solucionar algoritmos de redes neuronales, pasando por el entrenamiento y la optimización del modelo usando los datos almacenados y por ultimo, generando un punto de acceso desde el cual se puede cargar información o datos al modelo para obtener predicciones o análisis de valor en tiempo real, que, de igual manera puede ser visualizado transportando la información mediante websockets.

La creación de modelos de aprendizaje profundo es diversa, en relación al tipo de datos que se use para alimentar o entrenar la red neuronal. En el caso de la industria, la mayoría de los datos que tienen valor o representan una variable importante para la producción o el proceso de planta son datos registrados en segmentos temporales, o series de tiempo. En ese sentido, el uso de redes neuronales recurrentes, principalmente con “neuronas” LSTM (Long Short Term Memory) han demostrado ser ideales para este tipo de datos pues tienen “memoria” de patrones que se encuentren en los datos y sirven para generar predicciones de series de tiempo futuras. También se ha encontrado que el uso de redes neuronales convolucionales de una dimension (Conv1D) generan predicciones buenas, y hace parte del trabajo de desarrollo del modelo y el entrenamiento de la red neuronal encontrar un balance optimo entre el numero de neuronas y conexiones usadas, como también de metodologías para evitar el sobreajuste (evento en el cual la red neuronal empieza a memorizar en vez de aprender), en concordancia con la cantidad de datos y la correlación que pueda existir entre variables medidas del proceso, para poder generar una predicción que se ajuste a la realidad futura del proceso. Ademas de estos modelos de aprendizaje supervisado, existen metodologías para diversos requerimientos como aprendizaje no supervisado, agrupamiento (clustering), redes bayesianas para inferencia, modelos dinámicos para control optimo entre muchos otros, que son aplicables dependiendo del requerimiento, el proceso, el tipo de dato y el objetivo que se quiera lograr

Las metodologias y tecnologías digitales siguen avanzando a un paso creciente y la industria nacional debe ajustarse a estos cambios, manteniéndose concurrente con las tendencias tecnológicas que mejoran la eficiencia de los procesos industriales e incrementan la calidad final del producto o servicio que provea. El uso de estos algoritmos de inteligencia artificial promete un mejor análisis a los grandes volúmenes de datos que cada vez es mas complejo analizarlos manualmente mientras que entrega una herramienta que complementa las tareas de analítica en la industria para lograr efectuar decisiones rápidas y eficientes.


La aplicación de la inteligencia artificial en la industria

La inteligencia artificial surge con el propósito de automatizar las tareas intelectuales normalmente desarrolladas por humanos y a raíz de esto aparecen estrategias basadas en manipulaciones de largas cadenas de funciones geométricas para transformar la información de entrada en representaciones significativas en la salida, en otras palabras, aprender representaciones útiles de los datos de entrada que se asemejen a la salida esperada

La basta cantidad de datos que se están generando en las industrias digitales actualmente permite la implementación de algoritmos de aprendizaje profundo o Deep Learning para desarrollar análisis sobre condiciones de proceso y predicciones de comportamiento como también ayudar a tomar decisiones criticas de forma mas inteligente y ágil.

Emplear este tipo de tecnologias se hace imperativo para mantener la competitividad a medida que se fortalece y se impulsa mas y mas la industria 4.0. En INSA tenemos las herramientas y el personal para implementar tecnologías digitales que le permitan a su industria mantenerse a la vanguardia, desde el nivel de planta hasta la visualización remota de sus datos y la analítica.

Usando servicios de virtualización y computación en la nube podemos reducir los costos operativos de la ejecución de estos algoritmos de inteligencia, que son intrinsicamente, computacionalmente dispendiosos logrando llevar fácilmente los análisis optimizados a las operaciones de su compañía

· 6 min read

Created: 14 de julio de 2020 Created by: Carlos Escobar

Las necesidades al exponer el servicio digital (IIoT aaS) y sus consecuencias legales. Una política de privacidad de datos es necesaria como parte del banquete de documentación para hacer plausible el despliegue de un servicio web, donde se establecen las responsabilidades del servicio a nivel técnico, el alcance y las facilidades, como también a nivel legal.

Esta ultima parte puede pasar por desapercibida, pero es algo imperativo y que vemos de forma constante con el consumo de servicios y aplicaciones web. Ese checkbox que marcamos siempre al crear una cuenta, donde firmamos las políticas y términos de privacidad de los datos que se van a crear y usar. Si bien la propuesta de digitalizacion actual incluye otras formalidades directas con el cliente ademas de todo constructo a nivel edge que puede involucrar obra eléctrica y comisionamiento en campo, es importante no dejar pasar que toda la estructura a nivel nube requiere ciertas formalidades de igual manera. Los datos, el activo mas importante en esta revolución y que tiene implicaciones sensibles por toda la información que representa, involucra consecuencias de carácter legal, consecuencias que no se pueden dejar a la ligera y que necesita un acompañamiento especial de leyes para industria digital, bajo la premisa que lo que hacemos es un servicio de servicios, es decir, la integración de diversos sistemas y softwares que son servicios, como un conglomerado hecho a la medida para un cliente y entregado como un servicio.

Esto debe adaptarse a la naturaleza del despliegue del servicio y su forma, a saber, on-premise, single-tenant, multi-tenant y private cloud.

Veamos de primera mano la figura del multi-tenant definiendo primero los requerimientos precisos para un despliegue sobre Thingsboard y la infraestructura de computación en la nube de AWS. Entendamos que una cuenta de AWS incluye el acceso a un amplio numero de servicios escalables, como n maquinas virtuales, bases de datos, zonas de hospedaje DNS y muchos mas servicios. Todo esto queda agrupado, a nombre de la cuenta, dentro de un bloque especial denominado VPC (virtual private cloud). Es decir, a cada cuenta se le asigna dentro del datacenter un espacio reservado abstracto donde aísla los servicios, credenciales y datos usados, mediante encriptación y estrategias de seguridad y privacidad, separado otros agentes y cuentas dentro de todo el sistema de AWS. Este VPC es entonces un espacio "propio" de la cuenta y su propietario. En ese sentido, AWS proporciona toda sus infraestructura y servicios incluidos como un IaaS. Dentro esta infraestructura es donde nosotros implementamos una plataforma (como thingsboard o ignition) que puede entregarse al cliente final como un PaaS, pero que yendo un paso mas allá, después de configuraciones, dispositivos y telemetría puede entregarse como un SaaS. Estas dos ultimas formas las podemos realizar al validar y completar los requerimientos propias para el funcionamiento de la plataforma, que en términos generales es una instancia de computo y almacenamiento como también otra de base de datos; en ese sentido, dentro de nuestro VPC se crea una instancia del servicio EC2 y otra del RDS. Aquí es donde resalta el concepto de tenant (inquilino), ya que nuestros clientes son inquilinos del servicio de software y/o plataforma. De aqui, el despliegue para varios clientes puede entenderse dentro del marco de multi-tenant, en el que dentro de una sola instacia de computo entregamos el servicio de software de plataforma IoT para monitoreo remoto a diversos clientes, segmentados unos de otros y de sus datos mediante usuarios y restricciones para control de acceso. Podemos entender entonces al signle tenant, como un inquilino de nuestra VPC de forma separada en los servicios de computo y DB, en el sentido que ejecutan todos los servicios web al igual que en la configuracion multi tentant, pero separando y segmetando clientes en instancias separadas de EC2, RDS y demas. La figura en premisa es pues instalar los seriviciso de software web de forma local en una red privada sin conectar con internet. Por ultimo, el private cloud seria la figura donde se brinda el acompañamiento y consultoría para la configuración de un VPC propietario del cliente, así como el soporte para los servicios que quedan configurados (esta ultima requiere delicadeza, pues es de cierta forma entregar parte del know how de forma privada a un tercero).

El servicio como tal lo entendemos entonces como la propuesta holistica desde campo hasta nube para soluciones de IIoT y de tecnologías para industria 4.0 (digitalización, enfocada a industria), entregadas sobre plazos temporales extensos como servicios, a clientes y actores diversos de actividades económicas e industria.

Lo que sigue despues de esto es propiamente la capitalizacion de los datos. La forma de llegar a cientos y miles de usuarios en la red es mediante un servicio propiamente digital, derivado de experiencia (y datos almacenados) durante largos periodos de operacion. Datos que desde el diseño de las politicas y terminos de uso del servico que involucren la adjudicacion y pertenencia de datos a la compañia. Al tener estos datos de diversos sistemas de forma propia, la informacion que esta allí es valor con potencial de extracción, pero que en terminos generales, ganancia neta de lo que se extraiga, informacion valiosa para comercializacion. Existen mercados de datos, la monetización -ver también aqui- de lo que representan gigas y gigas de memoria, formas de capitalizar lo que se puede decir de sistemas industriales en relación a los datos que se obtienen. Propietary data o la obtencion de una licencia para apropiarse de los datos almacenados, poder comercializarlos y extraer valor neto de la informacion, tambien para venta.

Es de sobreentender que esta estructura requiere entonces fundaciones legales, en particular por este propósito final, pero también para otras aclaraciones y condiciones de responsabilidades en el servicio, del proceso, riesgos y expectativas en general; cláusulas, propiamente en un contrato contemplando todas los detalles y previsiones de la entrega del servicio.

La invitación es entonces analizar y crear estrategias para informase y adquirir una estructura legal como necesidad para el despliegue de servicios en cualquier cliente.

La idea es que nuestras responsabilidades legales esten definidas y los riesgos a cada escala sean comprensibles y analizables, con el proposito de , bajo la premisa de .

Between USD $1200 and $1800 per year under aws marketplace web app Thingsboard Prototype.

· One min read

La intuición en un sistema artificial, esta denotada por ciertas directrices probabilisticas, asociadas directamente por los parámetros de entrada, como identificación de objetos o reconocimiento espacial sonoro. Bajo ciertas condiciones, estas directrices se ejecutan para obtener un parámetro estadístico, y ciertamente aleatorio, que para un rango de funciones posibles a realizar, ejecuta tareas dependiendo de esto.

· 3 min read

Decision making, patterns and art

When making difficult decisions, sometimes we compare the costs and benefits of our options. Sometimes we make decisions based on the best-possible and worst-possible outcomes.

Is there a better way to make decisions?

We make use of expected value to reason through making decisions when outcomes are uncertain.

____________________________

His bag has 4 red, 4 blue, and 2 green marbles. If you draw a red marble, you win $2. If you draw a blue marble, you lose $5. If you draw a green marble, you win $10. Assuming that you want to gain, and not lose, money, should you play?

The bag has 10 marbles, so in theory, if you play 10 times, you should draw 4 red, 4 blue, and 2 green marbles. Therefore, in theory, on average your net payout after these 10 rounds would be 2 + 2 + 2 + 2 - 5 -5 -5 - 5 + 10 + 10 = 8.2+2+2+2−5−5−5−5+10+10=8. Given that your average net payout after 10 games is positive, you could expect that if you played this game many times, in the long run, you would gain more money than you lose.

Note that choosing to play does not guarantee that you will win the first time. Also, this is an average being referred to; you won't necessarily actually draw each marble out of the bag while restricted to 10 actual draws; the calculation is merely an average of i8what you expect to happen after doing 10 draws many times.

expected value and tells us what to expect, on average, in the long run. We can find an expected value by multiplying each numerical outcome by the probability of that outcome, and then summing those products together.

For example, with Hugh's marble game, we have a

\frac410

10

4

chance of choosing a red marble and winning $2, a

\frac410

10

4

chance of choosing a blue marble and losing $5, and a

\frac210

10

2

chance of drawing a green marble and winning $10. The expected value in dollars for this game is

\frac410(2) + \frac410(-5) + \frac210(10) = 0.80 - 2 + 2 = 0.80.

10

4

(2)+

10

4

(−5)+

10

2

(10)=

0.80−2+2=0.80.

Often, in games, different people have different information available to them. (Think of how boring poker would be if everyone knew each other's cards.) However, this has a significant implication: the expected value of something can be different depending on how much you know, and it can even change for the same person as they get more information.

However, in order to affect the expectation calculation, any information will suffice, regardless of whether it is causal or not.

· One min read

The manipulation of qubits during computation uses gates that can modify the coefficients of a superposition, not just flip the state. This vastly increases the information density of a quantum computation.

The gates operate on qubits to change their quantum state. When the qubits are measured, their quantum state collapses and the computation is over.

Quantum computing then is about processing information with the quantum state and extracting the final form of that information through the measurements.

· One min read

Cambiar la descripción de un sistema basado en los fallos deterministicos estimados de sus funcionalidades, ¿ Cómo definiría la forma de comparar? Definiendo a través de otros sistemas de control, variables que alteren la dinámica1 basadas en algoritmos como backsteping y otros de vanguardia, y desarrollen mejora para parámetros de control deseables para pre-determinado/deseado valor final de n variables.

1 en descripciones naturales, cuando es vida lo que se analiza, y en general, tiempo, de las cosas, que se muevan o no, pero que de igual forma generan una dinámica->(fuerzas entre electrones, al final), sobre la naturaleza energética de el tiempo y su determinada configuración inicial; definiciones deterministas de estados temporales y dinamicas, de cualquier interacción entre los parámetros que interactúan energéticamente en un sistema definido.