Trending Misterio
iVoox
Descargar app Subir
iVoox Podcast & radio
Descargar app gratis
Big Data e Inteligencia Artificial
Big Data e Inteligencia Artificial
Podcast

Big Data e Inteligencia Artificial 3v2p2z

102
929

Un podcast para personas aparentemente normales que quieren transformarse en ninjas del Big Data, de la Inteligencia Artificial y de la vida 6b494v

Un podcast para personas aparentemente normales que quieren transformarse en ninjas del Big Data, de la Inteligencia Artificial y de la vida

102
929
21. Big Data y política
21. Big Data y política
Hoy vamos a hablar de las aplicaciones del Big Data en la política. A raíz de la compra de Twitter por Elon Musk hablamos sobre la cantidad de cosas que desvelan sobre nosotros nuestras interacciones con las redes sociales. Desde las primeras investigaciones por la Universidad de Cambridge y pasando por el escándalo de Cambridge Analytica, vemos la utilidad y el posible impacto de usar Big Data en campañas electorales. Recordad que si tenéis cualquier duda, pregunta o comentario podéis ar conmigo a través del formulario de o o en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/21-big-data-y-politica
Internet y tecnología 2 años
3
0
131
17:50
20. Machine Learning aplicado a la agricultura
20. Machine Learning aplicado a la agricultura
Hoy vamos a hablar de las aplicaciones del Machine Learning a la agricultura. Enlaces a las empresas que mencionamos en el episodio de hoy: ⭕️ AgroStar ⭕️ Semios ⭕️ Taranis ⭕️ Trace Genomics Recordad que si tenéis cualquier duda, pregunta o comentario podéis ar conmigo a través del formulario de o o en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/20-machine-learning-agricultura
Internet y tecnología 2 años
7
0
166
21:40
19. Inteligencias artificiales que discriminan. Los sesgos
19. Inteligencias artificiales que discriminan. Los sesgos
Hoy vamos a hablar de por qué Google no ha dado a Imagen todavía y de los sesgos en los modelos de Machine Learning. Enlaces que mencionamos en el episodio de hoy: ⭕️ Sesgos de DALL·E 2 ⭕️ Experimento de BikoLabs sobre los sesgos en herramientas comerciales Recordad que si tenéis cualquier duda, pregunta o comentario podéis ar conmigo a través del formulario de o o en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/19-Inteligencias-artificiales-sesgos
Internet y tecnología 2 años
10
4
159
19:40
18. Tinder y cómo encontrar pareja con Machine Learning
18. Tinder y cómo encontrar pareja con Machine Learning
Hoy vamos a hablar de Tinder y cómo utilizan Machine Learning para encontrarnos pareja. Recordad que si tenéis cualquier duda, pregunta o comentario podéis ar conmigo a través del formulario de o o en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/18-tinder-Machine-Learning
Internet y tecnología 2 años
3
4
149
24:07
17. Una Inteligencia Artificial para dominarlas a todas
17. Una Inteligencia Artificial para dominarlas a todas
Hoy vamos a hablar de todos los avances que han tenido lugar en el campo del Machine Learning en los últimos meses y los debates que se han abierto al respecto. Enlaces a los modelos de Machine Learning que mencionamos hoy: ⭕️ DALL·E 2: Generación de imágenes a partir de una descripción textual (OpenAI) ⭕️ MidJourney: Generación de imágenes a partir de una descripción textual. ⭕️ Stable Diffusion: Generación de imágenes a partir de una descripción textual. Modelo abierto y disponible (StabilityAI) ⭕️ Imagen: Generación de imágenes a partir de una descripción textual (Google) ¿Generan arte? ¿son creativos? ⭕️ LaMDA: Modelo del lenguaje conversacional ¿tendrá conciencia? En este artículo del Washington post un ingeniero de Google afirma que sí. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/17-una-ia-para-dominarlas-a-todas
Internet y tecnología 2 años
7
2
174
14:09
16. Etapas de un proyecto de Machine Learning: Despliegue y monitorización
16. Etapas de un proyecto de Machine Learning: Despliegue y monitorización
Hoy vamos a hablar de todo lo que nos queda por hacer una vez hemos entrenado el modelo de Machine Learning. Todas esas cosas de las que nunca hablan en los cursos de Inteligencia Artificial. Enlaces al resto de episodios de esta saga: ⭕️ Episodio 13: Etapas de un proyecto de Machine Learning: El problema ⭕️ Episodio 14: Etapas de un proyecto de Machine Learning: Los datos ⭕️ Episodio 15: Etapas de un proyecto de Machine Learning: El modelo Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/16-etapas-proyecto-machine-learning-parte-4/
Internet y tecnología 2 años
4
4
181
15:34
15. Etapas de un proyecto de Machine Learning: El modelo
15. Etapas de un proyecto de Machine Learning: El modelo
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/15-etapas-proyecto-machine-learning-parte-3/ En el episodio 13 hablamos del planteamiento del problema de Machine Learning. En el episodio 14 vimos como construir un dataset de calidad. Y hoy, vemos la fase de diseño del modelo de Machine Learning, aunque damos por hecho que un ingeniero de datos se ha encargado de seleccionar el almacenamiento adecuado para nuestros datos y los tenemos listos para usar. Si queréis saber más sobre el ciclo de vida de un dato desde su ingesta hasta que está listo para ser utilizado, podéis ver este hilo de twitter al que hago referencia en el episodio de hoy. Antes de entrenar el modelo hay que preparar los datos. Transformaciones obligatorias de los datos para que sean compatibles con el modelo. Transformaciones opcionales, aunque muy convenientes, que ayudan a que el modelo converja más rápido como la normalización de los datos. Manejo de los valores faltantes, que son aquellos registros de datos que vienen vacíos por alguna razón. Lo primero que haremos es separar unos cuantos datos que utilizaremos más adelante como conjunto de datos de validación. Estos datos no los podremos usar durante el entrenamiento del modelo. Después elegiremos la versión más sencilla de un modelo de Machine Learning que se ajuste a nuestro problema. Añadiremos complejidad al modelo y ajustaremos sus parámetros lo mejor que podamos mediante una función de coste, que cuantifica el error de nuestras predicciones, y un algoritmo de optimización. Pero ojo que si los resultados son muy buenos en el dataset de entrenamiento, tal vez estemos sobreajustando. Para comprobarlo tenemos el conjunto de validación. Usaremos el dataset de validación para ver si el rendimiento del modelo baja mucho con datos que no ha visto durante el entrenamiento. Si lo hace, estamos sobreajustando y habrá que aplicar técnicas de regularización. El mejor modelo es el que encuentra el equilibrio entre ajustar los datos de entrenamiento y ser capaz de generalizar y dar buenos resultados con datos que no ha visto antes. Espero que os guste el episodio 😊 Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 2 años
3
2
209
17:18
14. Etapas de un proyecto de Machine Learning: Los datos
14. Etapas de un proyecto de Machine Learning: Los datos
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/14-etapas-proyecto-machine-learning-parte-2/ En el episodio de hoy de Un Podcast Ninja sobre Big Data seguimos con la saga de episodios dedicados a las etapas de un proyecto de Machine Learning. Vamos a tratar la parte más importante: los datos. La disponibilidad de los datos suele ser la parte más limitante cuando queremos resolver un problema mediante Machine Learning. Por eso, una de las averiguaciones más importantes que tenemos que hacer es saber qué datos tendremos disponibles tanto para entrenar nuestro modelo de Machine Learning como para utilizarlo. Tiene que ser datos representativos. Es decir, reflejan con exactitud el entorno que estamos modelando. Los datos tienen que ser consistentes. Deberían proceder de fuentes fiables y estar disponibles. Los datos deberían ser abundantes. Cuantos más ejemplos mostremos a nuestro modelo de Machine Learning mejor. El siguiente paso en el camino para construir un dataset sería etiquetar los datos. Dependiendo del caso de uso y los recursos de los que dispongamos tendremos las siguientes opciones: Etiquetarlos nosotros mismos. Contratar a alguien para que lo haga por nosotros. Existen empresas que se dedican exclusivamente al etiquetado de datos. Utilizar Mechanical Turk, una plataforma de Amazon que pone en o a gente que quiere etiquetar datos con gente dispuesta a hacerlo por un módico precio. Una vez recogidos y etiquetados, una buena práctica es familiarizarnos con ellos antes de comenzar  con  el entrenamiento del modelo de Machine Learning. Esto nos ayudará a reconocer errores que puedan surgir en nuestros resultados. Y recordad que si disponéis de tiempo extra para vuestro proyecto de Machine Learning tal vez sea más efectivo dedicarlas a recoger más datos que a tunear el modelo que habéis entrenado. Espero que el episodio os sea de provecho 😊 Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 2 años
4
2
216
16:33
13. Etapas de un proyecto de Machine Learning: El problema
13. Etapas de un proyecto de Machine Learning: El problema
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/13-etapas-proyecto-machine-learning-parte-1/ El episodio de hoy de Un Podcast Ninja sobre Big Data es el primero de una saga de episodios en la que hablaremos sobre el flujo de trabajo en proyectos de Machine Learning. Empezamos por una parte crucial: Entender el problema que tenemos entre manos. ⭕️ Para refrescar de qué va esto del Machine Learning tenéis el episodio 7 del podcast: ¿Qué es el Machine Learning? Nuestro punto de partida es entender el problema que vamos a resolver. Lo más interesante del Machine Learning es que puede aplicarse en un montón de campos. Hoy trabajas con datos de un ecommerce, mañana con imágenes de una línea de producción, no hay límites. Al ser una disciplina tan transversal, no podemos aplicarla de la misma manera en todos los casos de uso. Tenemos que empezar por intentar comprender por qué un cliente determinado está intentando resolver el problema que nos ha presentado y qué valor va a obtener de la solución que le demos. Hay que tener en cuenta cómo se va a utilizar el modelo de Machine Learning que obtengamos y cómo va integrarse en el negocio de nuestro cliente. Y ojo porque en ocasiones puede que la mejor solución ni siquiera incluya Machine Learning. Una vez que tengamos claro que aplicar Machine Learning es una opción válida tendremos que analizar el tipo de entradas que recibirá nuestro modelo y la variable objetivo que estamos intentando predecir. Además, haremos una aproximación - aunque sea de punto gordo - del tipo de problema de Machine Learning que vamos a resolver (clasificación, regresión, sistema recomendador...). Finalmente, tendremos que analizar el contexto en el que va a vivir nuestro modelo y las restricciones del entorno en el que se desplegará (si es que hay alguna). ¡Todo esto antes de tan siquiera recolectar ni un solo dato! Espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data. ⭕️ Enlace al episodio 9 en el que hablábamos de predecir la bolsa y vimos cómo no podíamos predecir los movimientos de un stock basándonos únicamente en sus valores pasados. 
Internet y tecnología 2 años
3
0
221
14:40
12. Perfiles profesionales Big Data
12. Perfiles profesionales Big Data
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/12-roles-en-un-equipo-big-data. En el episodio de hoy de Un Podcast Ninja sobre Big Data sobre quién hace qué en un equipo de datos. Exploraremos los distintos roles en un equipo Big Data y analizaremos qué habilidades tiene o debería de tener cada uno de los roles dentro del equipo. Y también, por supuesto, hablaremos de dinero. Hablaremos de cuánto gana en España cada perfil profesional Big Data. A la hora de buscar trabajo en un campo relativamente nuevo como es el Big Data, más allá del título que pueda o no tener una oferta de empleo es conveniente fijarse en qué habilidades se están buscando. Tenemos que tener en cuenta que cada rol no es estanco y perfectamente delimitado. Es más que posible que la misma persona tenga habilidades que corresponden a distintos roles y que es muy difícil que un mismo ser humano sea un experto en todo el proceso de construir soluciones basadas en datos. Los roles en equipos de datos más comunes en España son: Científico de datos: Cubre todo el espectro desde analistas hasta especialistas de Machine Learning Analista de datos: Manejo de hojas de Cálculo, bases de datos y herramientas de visualización como Tableau o Power BI y sabe Python o R. Especialista en Machine Learning: Diseño, implementación, despliegue y mantenimiento de modelos de Machine Learning. Nivel de programación avanzado y conocimiento de frameworks específicos como TensorFlow, PyTorch, etc... Ingeniero de datos: SQL es su lengua materna. Conoce las tecnologías distribuidas Big Data (Hadoop, Spark…) y también se desenvuelve bien con los servicios en la nube (Google Cloud, AWS, Azure…) Arquitecto de datos: Responsables del diseño de la infraestructura de datos que el equipo de Ingeniero de datos se encargará de desarrollar y mantener. Si te interesa saber cuánto cobran estos distintos roles en un equipo Big Data puedes verlo en este artículo. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 2 años
6
0
258
22:28
11. La Gran Dimisión
11. La Gran Dimisión
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/11-la-gran-dimision En el episodio de hoy de Un Podcast Ninja sobre Big Data hablamos sobre por qué a todo el mundo (especialmente en Estados Unidos) le dió por dejar su trabajo tras la pandemia de Covid19 durante "La Gran Dimisión" y qué tiene eso que ver con el Big Data. En 2021 y tras la pandemia de Covid19, en EEUU casi 48 millones de personas dejaron voluntariamente su puesto de trabajo. Se ve que durante el confinamiento la gente tuvo tiempo para reflexionar sobre lo que estaba haciendo con su vida, si le gustaban sus condiciones laborales o hacia donde se dirigía su carrera. Además, aquellos que tuvieron la opción de trabajar en remoto descubrieron una flexibilidad laboral antes desconocida. Mucha gente decidió buscar otro trabajo antes de que les obligaran a volver a la oficina. Para una empresa perder a un trabajador cualificado, especialmente cuando no se espera que se vaya, supone perder dinero y es ahí donde entra el Big Data aplicado a RRHH en juego. En el episodio de hoy hablamos de People Analytics y de cómo su implantación coincide con el auge de la generación de datos del que hablabamos en el episodio 8 del podcast. Analizamos cómo estas técnicas pueden ayudar a las empresas a retener el talento gracias al Big Data y a las técnicas de People Analytics, que no es más que analizar los datos que tiene la empresa de sus empleados. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 2 años
5
0
166
15:35
10. ¿Qué es el Big Data?
10. ¿Qué es el Big Data?
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/10-que-es-el-big-data En el episodio de hoy de Un Podcast Ninja sobre Big Data explicamos qué es el Big Data y para qué se utiliza. A veces, leyendo la prensa, parecería que el Big Data está en la intersección entre una tecnología extraterrestre y magia negra y que además le debe de gustar el fútbol porque se dedica a predecir el resultado de todas las finales. Bueno, pues, nada más lejos de la realidad. Simplificando bastante, el  Big Data no es más que tomar decisiones basadas en datos pero de una manera vitaminada porque utiliza muchos datos. Datos de los que disponemos y que generamos cada día gracias a Internet. El Big Data es el ecosistema de herramientas y técnicas que permite manejar volúmenes muy grandes de datos a una velocidad alta. Y los datos que maneja son de distintos tipos: algunos son registros con información estructurada, en plan tablas de Excel gigantescas en bases de datos, archivos de correo electrónico, imágenes, vídeos… En el episodio de hoy también hemos tratado la Inteligencia de Negocio y cómo está basada en análisis descriptivos. Si queréis saber más sobre este tipo de análisis, no tenéis más que escuchar el episodio 6 del podcast. También hemos tratado las aplicaciones del Big Data en deporte (ya hablábamos de ello en profundidad en el episodio 5 del podcast), en banca o en medicina. Puedes  ampliar la información sobre qué es el Big Data y para qué se utiliza en este artículo del blog. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar un «Me gusta» y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 2 años
6
2
272
23:26
9. Big Data para precedir la Bolsa
9. Big Data para precedir la Bolsa
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/9-big-data-para-predecir-la-bolsa En el episodio de hoy de Un Podcast Ninja sobre Big Data hablamos sobre si es posible predecir la Bolsa con Big Data y Machine Learning. ¿Nos haremos ricos? 💰 Estaría bien poder predecir el precio futuro de las acciones o del bitcoin y así evitar gastar 10000 bitcoins en un par de pizzas como le pasó a Laszlo Hanyecz en 2010. Si hay algún sitio en el que se mueven muchos datos y mucho dinero para financiar modelos de inteligencia artificial, ese sitio es sin duda Wall Street. Y desde que el mejor trader era el que tenía una mejor intuición, mayor experiencia y su información priviligediada era ser el primero en leer el Wall Street Journal de camino al trabajo hace más de 60 años hasta hoy las cosas han cambiado mucho. La gestión de carteras automatizada lleva con nosotros desde 1975 con el primer fondo indexado y a partir de ahí se han ido creando otros productos financieros más elaborados. Muchos de ellos siguen reglas automáticas de compra-venta e inversión. Según Deutsche Bank el 90% de las operaciones de futuros y el 80% de las operaciones al contado se ejecutan mediante algoritmos sin intervención humana. Tal vez el Big Data podría abrirse camino en los mercados financieros. Eso piensa el fondo de cobertura Numerai, que recopila señales predictivas de Bolsa a través de una competición abierta a todos los científicos de datos del mundo. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar un "Me gusta" y algún comentario al episodio en Ivoox o una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Google podcasts o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data. También os dejo un enlace al tweet para ver qué opináis vosotros ¿Se puede predecir la Bolsa con Big Data y Machine Learning?
Internet y tecnología 3 años
3
0
230
16:40
8. El cuento del Deep Learning
8. El cuento del Deep Learning
📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/8-el-cuento-del-deep-learning/ En el episodio de hoy de Un Podcast Ninja sobre Big Data hablamos de todas las cosas que han pasado desde que McCulloch y Pitt se propusieron modelar el comportamiento de una  neurona en 1943 hasta que el despegue del deep learning hace poco más de 10 años. El deep learning avanza a unua velocidad de vértigo. En el episodio 1 hablábamos de DALL·E 2, un sistema capaz de realizar ilustraciones super chulas a partir de una descripción. Este modelo de Deep Learning es tan innovador que ha llegado a ocupar titulares en las noticias nacionales. Bueno pues en un mes Google ya ha sacado su propia versión: Imagen. Aunque el deep learning no siempre ha avanzado así de rápido. El episodio de hoy es un episodio de origen del Machine Learning actual. La historia de lo que pasó desde los años 40 - 50 hasta los modelos super potentes del presente. Hablaremos de modelado estadístico, que dominó el cotarro  entre 1950 y 1970 De como Yann LeCunn resucitó el deep learning brevemente en los 80 También hablaremos de la época dorada de las SVM en los 90 y de la aparición de los modelos basados en árboles de decisión con el nuevo milenio Y, finalmente, como el deep learning volvió una vez más, esta vez para quedarse en 2010. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 3 años
11
0
294
16:42
7. ¿Qué es el Machine Learning?
7. ¿Qué es el Machine Learning?
En el episodio de hoy de Un Podcast Ninja sobre Big Data hablamos de qué demonios es el machine learning (o aprendizaje automático) y cómo se encuadra dentro del campo de la Inteligencia Artificial. El aprendizaje automático consiste en hacer que un ordenador adquiera una habilidad sin que nadie le haya programado explícitamente para realizar esa habilidad. Es esta "capacidad de aprendizaje" lo que hace que llamemos a estos sistemas inteligencias artificiales. En episodios anteriores he utilizado los términos machine learning e inteligencia artificial de manera  intercambiable aunque en realidad no son exactamente lo mismo. Los sistemas de Machine Learning son una parte de la Inteligencia Artificial. Además, en el episodio de hoy también hablamos sobre varios casos de uso del Machine Learning. Por ejemplo, sin darnos cuenta usamos ML al desbloquear dispositivos mediante reconocimiento facial. También tenemos el caso de detección de unidades defectuosas en una cadena de producción con el claro aumento de eficiencia en la fábrica. O el maravilloso campo del Procesamiento del Lenguaje Natural que puede interpretar la intención de búsqueda del cuando realiza una consulta en el buscador del navegador o la traducción automática de textos. Hace poco leía una noticia del modelo MUM que Google está desplegando en su buscador para poder detectar s en una situación de riesgo a partir de sus búsquedas en Google Os dejo un enlace a un artículo más completo del blog sobre qué es el machine learning aquí. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data. 📝 Podéis encontrar las notas del programa completas en https://datos.ninja/podcast/7-que-es-el-machine-learning/
Internet y tecnología 3 años
7
2
295
10:15
6. Tres tipos de análisis de datos y Youtube
6. Tres tipos de análisis de datos y Youtube
En el episodio de hoy de Un Podcast Ninja sobre Big Data hablamos de tres tipos de análisis de datos y cómo los ha aplicado Youtube a lo largo de su historia. El análisis descriptivo, que nos cuenta qué ha pasado hasta el momento y nos describe la situación que tenemos en el presente. Este tipo de análisis de datos es el más usado en Inteligencia de Negocio. Se utilizan los datos para conocer el estado actual de un negocio y asistir a los responsables de la toma de decisiones estratégicas. El análisis predictivo, que se basa en los datos pasados y presentes para intentar predecir lo que podría pasar en el futuro. Este tipo de análisis es un análisis basado en probabilidad, por lo que utilizando modelos estadísticos y machine learning obtenemos la probabilidad de que se cumpla o no una hipótesis. El análisis prescriptivo, que nos dice que tiene que pasar para que consigamos los resultados que queremos. Para realizar este tipo de análisis de datos se utilizan análisis de grafos y modelos de  machine learning más avanzados como redes neuronales y sistemas de recomendación. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o en https://datos.ninja/ar o podemos seguir la conversación en Twitter (datos.ninja/twitter). Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data. 📝 Podéis acceder a las notas del programa completas en datos.ninja/podcast/6-tres-tipos-de-analisis-de-datos
Internet y tecnología 3 años
6
0
266
12:13
5. Moneyball y la analítica de datos aplicada al deporte
5. Moneyball y la analítica de datos aplicada al deporte
En el episodio de hoy de Un Podcast Ninja sobre Big Data vamos a hablar sobre la película Moneyball y la analítica de datos aplicada al deporte. En Moneyball se trata el tema de la analítica de datos para asistir a los observadores deportivos a la hora de hacer un fichaje nuevo para el club. Pero además de para el scouting, el análisis de datos tiene otras muchas aplicaciones en el deporte. Una de las principales es el estudio del rendimiento del deportista y la prevención de lesiones. Por ejemplo, el Real Madrid ya en 2015 llevó a cabo un proyecto con Microsoft. El proyecto, llamado Data Explorer, servía para monitorizar el estado físico de los jugadores durante los entrenamientos con el objetivo de saber: ¿Qué jugadores estaban en peligro de lesionarse? ¿Qué jugadores estaban en su máximo de rendimiento? ¿Qué jugadores se acercaban al punto de fatiga? Con las respuestas a esas preguntas el entrenador podía decidir quién descansaba, quién jugaba más y cosas así. Otro caso en el que se utiliza analítica de datos en el deporte es a la hora de estudiar la estrategia de juego. Combinando el análisis de datos con técnicas de visión por ordenador es posible inferir patrones de comportamiento, el nivel táctico o el estilo de juego a partir de grabaciones de partidos. Durante el episodio de hoy también hablamos de un caso curioso de análisis de datos que se dió en el Ajax. Y estad atentos porque la analítica de datos en el deporte está despertando el interés de los clubes de la liga de fútbol profesional española. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o en datos.ninja/ar o podemos seguir la conversación en Twitter (datos.ninja/twitter) Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data. 📝 Podéis acceder a las notas del programa completas en datos.ninja/podcast/5-moneyball-y-analitica-de-datos-deporte
Internet y tecnología 3 años
6
0
266
12:16
4. ¿En qué consiste la ciencia de datos?
4. ¿En qué consiste la ciencia de datos?
En el episodio de hoy os voy a intentar contar lo más claro que pueda y con mis propias palabras en qué consiste la ciencia de datos. Según wikipedia la ciencia de datos se define como: La ciencia que tiene por objetivo extraer información de valor y conocimiento de los datos. Así que después de haber hablado de cómo utilizan los datos empresas como Starbucks o AirBnB, hoy vamos a ver qué proceso siguen los datos para transformarse en información de valor. Además, hablamos de los beneficios de implementar una estrategia de datos en una empresa independientemente de su tamaño y también hablamos de las diferencias entre Data Science, Big Data e Inteligencia Artificial. Finalmente respondemos a la pregunta ¿qué hace un científico de datos en su día a día? Si queréis leer un artículo más completo sobre qué es el data science podéis encontrarlo https://datos.ninja/blog/que-es-data-science/. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o que encontraréis en https://datos.ninja/ar o podemos seguir la conversación en Twitter (https://datos.ninja/twitter) Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 3 años
6
0
365
16:44
3. AirBnB y el análisis de datos
3. AirBnB y el análisis de datos
En el episodio de hoy de Un Podcast Ninja sobre Big Data vamos a hablar sobre cómo la plataforma de alquiler de viviendas AirBnB comenzó a utilizar el análisis de datos como una manera de conocer el de sus s. Para que os hagáis una idea de la importancia que AirBnB le da a los datos solo hace falta fijarse en que en 2017 ya tenía 150 personas en plantilla trabajando directamente en el equipo de data. Y esta gente hacía y sigue haciendo básicamente 3 cosas (aunque hoy en día son unos cuantos personas más): Analítica de datos para poder interpretar los datos de los que disponen y responder preguntas a partir de la información que obtienen. Experimentación antes de lanzar nuevas características en su plataforma mediante tests A/B. Desarrollo de productos que utilizan Machine Learning, reconocimiento y análisis de imágenes y procesado del lenguaje natural. El objetivo de AirBnB es mejorar la experiencia de y en última instancia también aumentar el número de reservas a través de la plataforma. Desde la personalización del orden de los resultados de búsqueda para la persona que va a viajar como la recomendación del precio que debería de poner el anfitrión a su alojamiento para maximizar su beneficio a la hora de alquilarlo, en el episodio de hoy analizamos las estrategias de Big Data que utiliza AirBnB para ser mejor cada día. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o o podemos seguir la conversación en Twitter. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 3 años
8
2
339
18:23
2. Starbucks y el Big Data
2. Starbucks y el Big Data
En el episodio de hoy de Un Podcast Ninja sobre Big Data vamos a hablar sobre el ingrediente secreto de la receta de Starbucks: el Big Data y la Inteligencia Artificial. Hoy en día, Starbucks no solo hace cafés sino que recoge y analiza los datos generados a partir de las interacciones con sus s. A través del Machine Learning de su plataforma Deep Brew es capaz de saber las preferencias de cada cliente analizando los ingredientes de los productos que consume, el Starbucks donde compra e incluso analiza el contexto de cada transacción para saber si un cierto cliente consume un producto dependiendo de la hora del día o del tiempo que hace en la calle. Además, Starbucks utiliza el análisis de datos para ayudar al desarrollo de su negocio siguiendo varias líneas: Optimización de las ubicaciones de nuevas tiendas Selección de los nuevos productos que saca al mercado Seguimiento de inventario en tiendas Planificación de los turnos del personal en las tiendas Avisos de necesidad de mantenimiento en las máquinas de café antes de que se produzcan averias Está claro que el negocio principal de Starbucks es el café pero tiene la intención de convertirse en una empresa tan buena en la aplicación de Inteligencia Artificial como cualquier tecnológica y ya está obteniendo beneficios de ello. Así que espero que el episodio de hoy os sea de provecho y que aprendáis algo de valor. Si es así, no olvidéis dejar una valoración de 5 estrellas del podcast en Apple podcasts, en Spotify, en Ivox, en Google podcast o donde quiera que escuchéis el podcast. Recordad que si tenéis cualquier duda o pregunta podéis ar conmigo a través del formulario de o. Muchas gracias por estar ahí y os espero en el próximo episodio de Un Podcast Ninja sobre Big Data.
Internet y tecnología 3 años
9
0
413
14:34
También te puede gustar Ver más
monos estocásticos
monos estocásticos monos estocásticos es un podcast sobre inteligencia artificial presentado por Antonio Ortiz (@antonello) y Matías S. Zavia (@matiass).  Sacamos un episodio nuevo cada jueves. Puedes seguirnos en YouTube, LinkedIn y X. Más enlaces en cuonda.com/monos-estocasticos/links Hacemos todo lo que los monos estocásticos saben hacer: coser secuencias de formas lingüísticas que hemos observado en nuestros vastos datos de entrenamiento según la información probabilística de cómo se combinan. Actualizado
Esto es lo que AI
Esto es lo que AI ¿Cómo de Inteligente es la Inteligencia Artificial? ¿Habrá un futuro dominado por máquinas? ¿Serán tan listas? ¿Y nosotros, qué pintaremos en todo esto" data-v-79951741>
xHUB.AI
xHUB.AI En la era de la Inteligencia Artificial, la aplicación en cualquier escenario supone el mayor debate y más importante para el ser humano y su futuro.En el podcast de xHUB.AI hablamos sobre inteligencia artificial y otras ciencias transversales, su aplicación a diferentes sectores y soluciones, con los mejores speakers y especialistas.La Inteligencia Artificial cambiará el mundo y nosotros queremos contartelo.Te lo vas a perder? Actualizado
Ir a Internet y tecnología