Recursos
y herramientas para el análisis efectivo de datos.
Se
abordan las herramientas para reconocer el proceso de instalación de la
infraestructura y librerías basados en el lenguaje de programación Python,
fundamental para el manejo y el análisis exploratorio de los datos.
Aprenderá a desplegar su propio entorno de trabajo con herramientas modernas
Python, a realizar las lecturas de los archivos, manipular la información y
generar análisis estadísticos.
Para empezar con la instalación de las herramientas tecnológicas que
permitan el despliegue del lenguaje de programación Python, es importante que
valide los requerimientos técnicos con los que se debe contar, entre los que
están:
Figura 1 Requerimientos
técnicos
Por otro lado, las instalaciones necesarias que se
deben ejecutar para desarrollar el análisis de datos exploratorio las puede
encontrar a continuación:
Python
Es un lenguaje
de alto nivel, utilizado, entre otras cosas, en proyectos de ciencias de datos;
cuenta con librerías muy robustas, que permiten la manipulación de grandes
volúmenes de información; estas ejecuciones se pueden realizar muy fácilmente,
ya que las librerías se ofrecen con muy pocas líneas de código, que en
ocasiones pueden resultar muy complejos.
Python es un lenguaje de programación
multiplataforma, el cual permite desarrollar aplicaciones en cualquier sistema
operativo.
Para la utilización del lenguaje, es necesario
descargar e instalar una distribución de Python que permite que las ejecuciones
se realicen de manera gráfica a través de Notebook.
Anaconda
Es una
distribución del lenguaje de programación que permite utilizar con mayor
facilidad el lenguaje Python. Para este caso, se hará uso de la interfaz
gráfica, aunque también se puede trabajar en modo consola.
Para las implementaciones de interfaz gráfica, se utilizan los
llamados JUPITER, los cuales vienen con la implementación de Anaconda, de
manera que facilitan la gestión de Notebooks (libros
que permiten ejecutar líneas de código del lenguaje de manera gráfica, lo que
establece un ambiente más intuitivo para al usuario).
JupiterLabs
Esta aplicación permite la creación de archivos denominados Notebooks, para la ejecución y visualización de
códigos Python.
Esta aplicación es compatible con código en tiempo
real, ecuaciones matemáticas, visualización y Markdown. Sus usos incluyen
limpieza y conversión de datos, simulación numérica, modelado estadístico y
máquinas.
Notebooks
Es una
herramienta que permite la creación de diferentes celdas, necesarias para el
desarrollo del código en Python; entre dichas celdas, se encuentran:
Celdas para realizar comentarios: se
utilizan para documentar las líneas de código y ayudan como guía para el
desarrollador del proyecto.
Celdas para ingresar líneas de código Python: permite ingresar códigos que son interpretados por el lenguaje
de programación Python.
Celdas con los resultados obtenidos: permiten visualizar las variables, tablas, gráficos, entre
otros, del proceso que se realiza en las celdas de ingreso de código.
1.1 Instalación Anaconda
Anaconda es una distribución de Python que trae consigo múltiples
aplicaciones que permiten la implementación de diversos proyectos, ya sea a
nivel de consola o a través de interfaz gráfica; este es un software de uso gratuito, que se puede descargar a
través de su página oficial.
Para conocer el proceso de instalación, revise con atención el siguiente
recurso educativo.
1.2 Primeros pasos
Una vez realizada la instalación correctamente, se recomienda reiniciar
el computador, para que todas las herramientas terminen su proceso de
configuración y se pueda empezar a trabajar en la aplicación que provee esta
distribución.
Después de haber realizado la instalación, ingrese
en la barra de búsqueda las palabras Anaconda Navigator, y seleccione el ícono
correspondiente que indica la aplicación; esta distribución de software incorpora varias aplicaciones que
permiten ejecutar código del lenguaje de programación Python, las cuales pueden
usarse en modo consola o de interfaz gráfica.
En el siguiente recurso educativo, conocerá los
primeros pasos para la ejecución del entorno de trabajo en una de las aplicaciones
provistas por Anaconda Navigator denominada JupiterLabs, esta es la aplicación
que se estará utilizando en el curso de análisis exploratorio de los datos:
1. Abrir Anaconda Navigator
Para el software Anaconda Navigator, diríjase a la barra de búsqueda de su computador y escriba Anaconda Navigator; en la medida que empiece a escribir, se irán filtrando las aplicaciones; seleccione el ícono que se identifica como aplicación de Anaconda Navigator, como se muestra en la imagen.
Seleccione la herramienta JupiterLab
Cuando se abre la Anaconda Navigator, usted podrá observar múltiples herramientas para el manejo de proyectos en Python; para este caso, la herramienta a utilizar será JupiterLab, para usar esta aplicación, selecciona la herramienta dando clic en el botón Launch.
Haga clic sobre el botón Launch
Allí se desprende el entorno de trabajo que se muestra en la imagen. Al
lado izquierdo, encontrará las carpetas necesarias para guardar cada uno de sus
archivos; al lado derecho, aparece el tipo de aplicación que se utilizará; para
este caso, el curso está basado en la creación de Notebooks.
Creación de Notebooks
Para crear los Notebooks,
seleccione la primera opción de la derecha, tal como se muestra en la imagen;
en el panel izquierdo, puede seleccionar la carpeta donde va a guardar
los Notebooks.
Extensión .ipynb
Los Notebooks tienen la extensión
.ipynb, y el entorno de trabajo se puede apreciar en la imagen.
Celdas en los Notebooks
En la siguiente imagen, se representan los tres tipos de celdas que se
utilizan en los Notebooks: la primera línea es un
comentario, como se aprecia en la imagen: “Mi Primer Programa”, esta sirve para
llevar la documentación del archivo; la siguiente línea: print (“Hola Mundo”),
ejecuta la línea de comando del lenguaje Python.
Finalmente, la tercera línea muestra los
resultados, en este caso, el texto “hola mundo”, estos datos también pueden ser
numéricos, tablas, gráficos, entre otros.
Herramientas del archivo Notebook
A continuación, se detalla cada herramienta que hace parte del
archivo Notebook, y que ayuda al desarrollo del proyecto.
- Para
guardar el Notebook, utilice el primer
ícono en forma de disquete.
- Cada vez
que se requiere adicionar una nueva línea, ya sea de comentario o de
código, se utiliza el ícono con el signo +.
- El ícono
de las tijeras elimina las líneas de código.
- Las
líneas se ejecutan de manera independiente con el ícono de forma
triangular.
- Para
pausar o detener el proceso, el ícono indicado es el cuadrado al lado del
triángulo.
- La flecha
en forma circular se utiliza para reiniciar el programa desde la primera
línea.
Línea de código o de comentario
En la parte superior derecha, está la lista de opciones para indicar si
una línea es de código o de comentario; como se aprecia en la siguiente imagen,
se pueden seleccionar tres opciones:
Code: líneas de código que son interpretadas por el
lenguaje de programación Python.
Markdown: líneas de comentarios, ayudan a documentar el
proyecto, pueden incluir textos con formatos, imágenes, tablas, entre otros.
Raw: se usa para visualizar la información tal como se escribe, pero no es interpretada por el lenguaje.
1.3 Mi primer programa
Para comprender lo visto hasta el momento, replique
el siguiente ejemplo, que consiste en capturar dos variables y mostrar como
resultado la suma de ellas. Para cada celda donde solicite la variable, realice
la operación e incluya una celda de comentario que dé cuenta de lo que se ha
realizado o lo que se busca con esa línea.
Como se observa en la figura 2, se
utilizan las celdas de comentarios que especifican cada una de las operaciones
a realizar, y las celdas de código que se pueden fácilmente identificar por el
número que se asigna a la derecha encerrado entre corchetes.
Se ubica en cada una de las celdas de código y las
ejecuta con el ícono triangular ubicado en la barra superior, hasta poder
visualizar el resultado final.
Figura 2 Ejemplo suma de dos variables y celdas de comentarios
1.4 Librerías para el tratamiento y visualización de los datos
Las librerías son un conjunto de instrucciones que ayudan a codificar
todo tipo de soluciones, y para el caso del análisis exploratorio de datos, no
es la excepción; para este caso, se utilizan una serie de librerías que
facilitan el tratamiento y visualización de los datos con muy pocas líneas de
código.
Estas librerías procesan grandes volúmenes de
información y generan resultados muy importantes que agilizan el estudio de los
datos.
En el siguiente recurso
educativo, conocerá las principales librerías que se trabajarán en este
programa de formación, preste mucha atención, pues se explicará la forma
correcta de importarlas y ejecutarlas desde los Notebooks:
Librería Pandas: herramienta creada en Python para la manipulación y visualización
de grandes volúmenes de datos. Para la instalación en el Notebook, se debe crear una nueva celda de código e
ingresar el comando import pandas as pd.
Después, se coloca la palabra as seguida de pd, puede ser
cualquier nombre, este debe ser abreviado y hacer referencia al nombre de la
librería, por convención se puede decir que Pandas se utilizará como pd.
Librería Matplotlib: Es una librería que permite muy fácilmente generar diversos tipos
de gráficos. Para el uso de esta librería, ingrese el siguiente comando: import matplotlib.pyplot as plt.
Librería Seaborn: se basa en la librería para la gestión de gráficos Matplolib, se
utiliza para la visualización de gráficas más atractivas, igualmente, para los
gráficos informativos y estadísticos; para usar esta librería, importe de la
siguiente manera: import seaborn as sns.
Librería Numpy: este conjunto de herramientas es muy útil para trabajar funciones
matemáticas, algebraicas y la fácil manipulación de vectores y matrices; para
usar esta librería, use: import numpy as np.
Librería Scipy: contiene módulos para
optimización, álgebra lineal, integración, interpolación, funciones especiales,
FFT, procesamiento de señales y de imagen, resolución de ODEs y otras tareas
para la ciencia e ingeniería
2. Planteamiento de las
preguntas objetivo del negocio
Para realizar un análisis de datos exploratorio que
resulte efectivo, es de vital importancia, como primera medida, identificar y
tener claridad referente a los objetivos y las metas establecidas por la
organización hacia la cual se va a aplicar dicho análisis.
Desde
esta perspectiva, se debe identificar cada uno de los procesos que se realizan
en cada una de las áreas que conforman la empresa, esto permitirá tener
claridad frente a las tareas que se desarrollan y, por ende, de los datos que
dicha tarea requiere para ejecutarse de manera efectiva. En este orden de
ideas, al tener claros los requerimientos y las necesidades de la empresa, el
analista encargado tendrá una ruta ya establecida para dar inicio con la
planeación del análisis, su diseño e implementación.
Revise en el siguiente recurso educativo los pasos necesarios para
realizar el levantamiento de la información que permita la implementación del
análisis de datos exploratorio de datos en Python:
1. Establecer un diálogo constante con cada uno de los
miembros de la organización.
2. Identificar la misión y la visión organizacional
3. Identificar y tener claridad respecto de los
recursos financieros con los que cuenta la empresa.
4. Reconocer cada uno de los recursos tecnológicos con
los que cuenta la organización.
5. Identificar las características de los productos y
servicios que ofrece la organización.
6. Reconocer cómo está posicionada la empresa frente a
la competencia.
Al poder
responder a preguntas como: ¿qué necesidades tiene la empresa?, ¿hacia dónde va
la empresa?, ¿cuáles son sus objetivos?, entre otras, se podrán identificar los
parámetros y los procesos necesarios que permitan al analista implementar
estrategias efectivas para optimizar el manejo de grandes volúmenes de
información, los cuales, la mayoría de las veces, resultan fundamentales para
la toma de decisiones estratégicas que favorezcan a la organización.
Para que
el analista de datos pueda desarrollar de la mejor manera su trabajo, es
fundamental que cuente con el apoyo del gerente o el analista de negocio, los
cuales le darán la información suficiente para comprender al 100% cada uno de
los procesos de la empresa; a partir de allí, podrá establecer metodologías
adecuadas para la gestión, la organización y el manejo de datos.
Por otro lado, es
importante tener en cuenta que los análisis de datos no siempre pueden estar
enmarcados hacia un solo objetivo, estos pueden implementarse con el fin de
llevar a la organización hacia:
La búsqueda de nueva información.
El mejoramiento de los procesos productivos.
La identificación de problemas que puedan estar
afectando el óptimo desarrollo de la organización.
La implementación de estrategias para descartar o
aprobar hipótesis.
La creación de nuevas líneas de negocio.
El análisis de la competencia.
El desarrollo de planes de mejoramiento, entre
muchos otros.
Las formulaciones de los objetivos del análisis de
datos deben realizarse a partir de las respuestas dadas a las preguntas
formuladas para la obtención de la información base; si se plantean de manera
errónea las preguntas, pues las respuestas no van a ser las adecuadas, por
ende, el planteamiento de los objetivos llevará a un análisis de datos fallido,
que no va a beneficiar a la organización.
Por ende,
siguiendo con el ejemplo que se ha venido desarrollando a lo largo de este
espacio de formación, se reconocerá la mejor manera para desarrollar el
análisis y la identificación de preguntas que permitan identificar los
objetivos del análisis:
Para este
caso particular, se trabajará en un ejemplo en el que se requiere el análisis
de la colección de datos (DatosSeguros.csv) para desarrollar una estrategia
comercial de venta de seguros médicos; para este fin, se analizarán diferentes
variables que van a permitir determinar el valor de dicho seguro.
Desde esta perspectiva, la
formulación de las preguntas objetivo del negocio se basará en un conjunto de
datos que encontrará en los anexos con el nombre de DatosSeguros.csv. Inicialmente, se plantean las
siguientes preguntas, que sirven de base para el análisis de los datos:
¿Las personas fumadoras representan el mayor
potencial para ventas de seguros?
¿Cuál es la edad poblacional en la que se debe
concentrar la estrategia comercial teniendo en cuenta el mayor ingreso?
¿Cuál es la región con mayor potencial de venta de
seguros teniendo en cuenta los ingresos?
Pueden surgir N preguntas, pero una sola pregunta basta para generar un
análisis complejo de datos, incluso en el mismo análisis de los datos pueden
surgir nuevas preguntas que se pueden intentar resolver, al igual que nueva
información que no se contemplaba en principio.
Finalmente,
es importante socializar con todos los involucrados del negocio los hallazgos
obtenidos, esto con el fin de coordinar de manera más eficiente la
implementación necesaria para el análisis. Es importante que todos los miembros
de la organización estén alineados, esto permitirá trabajar en pro del alcance
de un mismo objetivo.
3.
Entendiendo los datos
¿Pero
qué se debe tener en cuenta para comenzar con el análisis de datos? Preste
mucha atención, pues a continuación se darán a conocer varias acciones que son
necesarias en el momento de estudiar datos, como, por ejemplo, la preparación
de la infraestructura, la determinación de los tipos de datos, el ordenamiento
de los datos, su agrupamiento, la identificación de datos nulos, de datos
duplicados, qué hacer con estos tipos de datos, los diferentes formatos
utilizados para el análisis, entre otros.
3.1 Prepare la infraestructura
Revise en el siguiente recurso educativo
los pasos necesarios para realizar el levantamiento de la información que
permita la implementación del análisis de datos exploratorio de datos en
Python:
Cree un Notebook
Para crear un entorno de trabajo, siga los
siguientes pasos.
- Inicie
Anaconda Navigator.
- Seleccione
la aplicación JupiterLabs.
- Crear
un Notebook llamado AnalsisDatos.ipynb.
Descargue
el archivo
Descargue
el archivo denominado: DatosSeguros.csv, que
encuentra en los anexos y colóquelo en la misma carpeta donde creó el Notebook.
Importe
las librerías Pandas
Para
importar la librería Pandas que servirá para la lectura del archivo CSV,
ejecute el siguiente comando:
import pandas as pd
3.2
Lectura de datos
Continuando
con el análisis, se procede con la lectura de los datos que ya se encuentran en
el archivo, los cuales deben ser asignados a la variable df. Para
ese fin, se debe ejecutar el siguiente comando:
df = pd.read_csv('DatosSeguros.csv')
El
nombre de la variable será df, que hace referencia a un dataframe,
es decir, a una colección de datos organizados en filas y columnas, a la cual
se le puede asignar el nombre que se prefiera o que mejor represente dichos
datos.
3.3
Identificación de los datos
Después
de la lectura de los datos dentro del archivo de texto en formato CSV, que se
encuentran almacenados ahora en la variable df, se debe aplicar el
siguiente comando para obtener información de los datos:
df.info()
En la tabla 1, se identifican
los campos obtenidos en la colección de datos clasificados en categóricos y
numéricos.
Tabla 1 Caracterización
de las variables
Variables numéricas |
|
Sexo (object) |
edad (int64) |
fumador (object) |
imc (float64) |
region (object) |
valor_seguro(float64) |
hijos (int64) |
Como
se observa en la figura 3, el resultado obtenido para el ejemplo
dado es 1349 registros y un total de 7 columnas. Con este resultado se realiza
la caracterización de las variables, las cuales pueden ser numéricas o
categóricas. Es importante tener en cuenta que las variables categóricas son de
tipo object.
Figura 3 Lectura
e identificación de los datos
3.4
Manipulando los datos
Al
observar con atención la figura 3, se puede visualizar en la información de los
datos que el resultado para las columnas imc y fumador es de 1347, mientras que
para las demás columnas es de 1349. Esto indica que existen valores vacíos para
esas dos variables.
Revise
con atención el siguiente recurso educativo, que permite visualizar los pasos
necesarios para limpiar los datos y dejarlos con una mejor consistencia para el
análisis.
4. Métodos
para el análisis de datos
Con
el análisis exploratorio de datos, es posible comprender y llegar a
conclusiones de hipótesis sin tener que centrarse en el desarrollo de
complicados algoritmos.
Dentro
de los métodos que se pueden utilizar en el análisis exploratorio, se
encuentran los análisis propios de la estadística descriptiva, además de las
visualizaciones gráficas, que permiten llegar a conclusiones de manera más
fácil y precisa.
En
ese sentido, se pueden encontrar, dentro del análisis de datos, variables que
son categóricas y variables numéricas, y dependiendo de ellas, se aplicarán
métodos que permitan generar algún tipo de información de interés.
Tenga
en cuenta que, para los ejercicios que se desarrollarán a continuación,
encontrará los documentos necesarios en los anexos del curso.
4.1
Medidas de tendencia central y de dispersión
Las
medidas de tendencia central permitirán revisar el comportamiento de los datos
desde el punto de vista del análisis estadístico; desde esta perspectiva, se
aplicarán los distintos métodos, entre los que se encuentran la media, la moda,
la mediana, la desviación estándar y los cuartiles, que ya se han definido en
el primer componente formativo.
Para
empezar, se procederá a aplicar los métodos de tendencia central a todos los
datos; para tal fin, se debe aplicar el siguiente comando, el cual permitirá
obtener el análisis de todas las variables, especificando la media, mediana,
valores mínimos y máximos, desviación estándar y cuartiles.
Comando: df.describe()
El
cual se define como se muestra en la siguiente figura:
Figura
4 Comando de tendencia central
Al
aplicar dicho comando, el resultado obtenido corresponde al cálculo de
diferentes medidas, que ofrecen un consolidado con todas las variables
numéricas de los datos analizados. En casi todas las variables, se observan
datos parecidos en cuanto a la media y el valor central o mediana; para las
variables valor del seguro, se marcan unas diferencias importantes entre estas
medidas, como se muestra en la figura 5.
Figura
5 Análisis estadístico de todas las
variables numéricas
4.2
Gráficos
Otra
medida que se puede aplicar para el análisis de datos es el uso de diferentes
tipos de gráficos, los cuales permiten una visualización más clara. Con el uso
de los gráficos, se puede realizar una distribución mucho más efectiva de los
datos, lo que facilita su interpretación.
Para conocer cada uno de los tipos de gráficos y su funcionalidad, revise con atención el anexo Tipo de gráficos
5. Análisis
de resultados y conclusiones
A
continuación, se tomarán los resultados obtenidos para realizar la comparación
y, de esta manera, se irá dando respuesta a las preguntas planteadas en el
inicio del análisis de los datos; para este fin, se definen los siguientes
pasos:
a Comparación entre el total de fumadores contra los que pagan más por el valor del seguro:
La
gráfica circular muestra que la mayor cantidad de clientes no son fumadores; la
segunda gráfica muestra una distribución que indica que los que más alto pagan
por el valor del seguro son los fumadores.
b Para determinar el total de valores porcentualmente pagados al seguro por personas no fumadoras y fumadoras, se usa el siguiente comando, que permite generar ese análisis a través de un gráfico de total porcentual. (Ver Figura 8)
c Para comparar los valores porcentualmente pagados al seguro de acuerdo con el rango de edad, utilice el siguiente comando, que permite generar ese análisis y verlo reflejado en la figura 9:
d
Por otro lado, para establecer la
correlación entre las variables que permiten identificar una cercanía, se
precisa el siguiente comando:
e Relaciones
multivariado: para realizar el análisis multivariado que implica más de dos
variables, se tendrán en cuenta las que tienen una relación más cercana, como
lo son el índice de masa corporal, la edad con respecto al valor pagado al
seguro y una variable muy importante que se ha descubierto, que es la de
fumador; se relacionarán tres variables en un mismo gráfico, con el objetivo de
observar patrones.
Para
el siguiente análisis, utilice el siguiente comando:
f Para
establecer relaciones entre el valor pagado, estado fumador y la región, es
necesario ejecutar el siguiente comando para determinar relación por regiones y
valores pagados, como se observa en la figura 13.
Conclusiones
Partiendo
de las preguntas planteadas y los resultados obtenidos en el análisis de un
solo dato y multivariado, se pueden generar las siguientes conclusiones:
- El 80 % de los
registros analizados no son fumadores.
- Cerca del 45 % de
los clientes no tienen hijos.
- Aproximadamente, el
70 % de los clientes tiene al menos un hijo.
- El rango de edad
para el rango A representa cerca del 30 % del total de registros.
- Los valores pagados
al seguro por los clientes identificados como fumadores equivalen al 50 %
del total.
- A pesar de que los
clientes no fumadores equivalen al 80 %, solo representan el 50 % del
valor total del seguro.
- La región no es
determinante en el valor del seguro.
- Lo más relevante en
los valores pagados al seguro se dio en personas que son fumadores
Síntesis
En
la actualidad, existen muchas herramientas y recursos que pueden implementar
las organizaciones, independientemente de su tamaño, para el análisis
exploratorio de datos, una de ella es Anaconda, la cual, por medio de lenguajes
como Python, permite el manejo y procesamiento de grandes volúmenes de
información; por ende, en el desarrollo de este componente, se reconoce a fondo
dicha herramienta, de la misma forma que su proceso de instalación; por medio
de ejemplos, se identifica el proceso de aplicación de las metodologías
necesarias para la preparación, lectura y análisis de datos.
Una
breve revisión de los temas vistos se encuentra en el siguiente esquema:
Glosario
B
BoxPlot: gráfico
de caja que sirve para representar la dispersión de los datos en cuartiles.
G
Gráfico: utilizado
para realizar representaciones estadísticas y mostrar información con el
objetivo de generar información.
J
JupiterLab: aplicación
que hace parte de Anaconda y sirve para crear la interfaz gráfica para los
proyectos de Python.
N
Notebook: archivos
que se crean desde el aplicativo JupiterLab.
P
Pandas: librerías
de Python utilizadas para el análisis y la manipulación de los datos.
S
Seaborn: librería
especializada en la creación de gráficos informativos y estadísticos.
Material complementario
Tema |
Referencia
APA del material |
Enlace |
Análisis Exploratorio de Datos |
Abonaplata. (2019). Análisis
exploratorio de datos con Python. |
https://www.kaggle.com/code/abonaplata/analisis-exploratorio-de-datos-con-python/notebook |
Análisis Exploratorio de datos |
Sotaquirá, M. (2021). ¿Cómo hacer el Análisis
Exploratorio de Datos? - Guía paso a paso. Codificando bits. |
https://www.codificandobits.com/blog/analisis-exploratorio-de-datos/ |
Descargar Anaconda |
Anaconda. (s. f.). Anaconda
Distribution. |
|
Colección de Datos |
MAJYHAIN.
(2022). Height of Male and Female by Country 2022. Kaggle. |
https://www.kaggle.com/datasets/majyhain/height-of-male-and-female-by-country-2022 |
Acevedo,
A. y Martínez, V. (2021). Hacia una explotación de la encuesta de estructura
salarial en hostelería desde el análisis exploratorio de datos con aplicación a
la brecha salarial de género. Revista Atlántida: Revista Canaria de Ciencias
Sociales, (12), p. 101-129.https://dialnet.unirioja.es/servlet/articulo?codigo=8310316
Marrugo, H. y Melo, J. (2020). Propuesta
análisis exploratorio de datos georreferenciables y temporales, caso de
estudio: producción nacional del oro 2012 a 2020. Fundación Universitaria Los
Libertadores.http://hdl.handle.net/11371/3596
Meneghetti, M.
(2021). Introduction to Gravitational Lensing: With Python Examples. Springer.
Rojas, I., Jiménez, E. y Yepes, R. (2021).
Competencias profesionales e Industria 4.0: análisis exploratorio para
ingeniería industrial y administrativa en Medellín. Revista Interamericana de
Investigación, Educación y Pedagogía, 14(2), p. 169-194.
Roldán, C. (2021). Instalación y
configuración básica de Anaconda para Python. Universitat Politècnica de
València.
https://riunet.upv.es/handle/10251/167282
Créditos
ECOSISTEMA DE RECURSOS EDUCATIVOS
DIGITALES
Maria Camila Garcia Santamaria |
Líder del equipo |
Dirección General |
CONTENIDO INSTRUCCIONAL
Rafael Neftalí Lizcano Reyes |
Responsable equipo desarrollo curricular |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Ronald Alexander Vacca Ascanio |
Experto Temático |
Centro De Diseño Metrología - Regional
Distrito Capital. |
Jeimy Lorena Romero Perilla |
Diseñador Instruccional |
Centro de la industria, la empresa y los
servicios - Regional Norte de Santander |
María Inés Machado López |
Diseñador Instruccional |
Centro de la industria, la empresa y los
servicios - Regional Norte de Santander |
Alix Cecilia Chinchilla Rueda |
Asesor metodológico y pedagógico |
Centro De Diseño Metrología - Regional
Distrito Capital. |
Darío González |
Corrección de estilo |
Centro De Diseño Metrología - Regional
Distrito Capital. |
DISEÑO Y DESARROLLO DE RECURSOS
EDUCATIVOS DIGITALES
Francisco José Lizcano Reyes |
Responsable equipo diseño y desarrollo
de RED |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Anllelo Andres Reina Montañez |
Diseño Web |
Centro de Comercio y Servicios Regional
Tolima |
Daniel Ricardo Mutis Gómez |
Validación Diseño web |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Luis Jesús Perez Madariaga |
Desarrollo Front-End |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Andrea Paola Botello De La Rosa |
Validación Desarrollo Front-End |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Luis Gabriel Urueta |
Desarrollo actividades didácticas |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Camilo Bolaño |
Locución |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Yicelly Mesa |
Storyboard y gráficos |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Ludwyng Corzo |
Animación 2d |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
Junior Rodriguez |
Validación producción audiovisual |
Centro Industrial del Diseño y la
Manufactura Regional Santander |
GESTORES DE REPOSITORIO
Milady Tatiana Villamil Castellanos |
Responsable equipo gestión de
repositorio |
Centro de Comercio y Servicios Regional
Tolima |
Álvaro Andrés Angarita Ramirez |
Validación y vinculación en plataforma
LMS |
Centro de Comercio y Servicios Regional
Tolima |
Daniel Felipe Varón Molina |
Validación y vinculación en plataforma
LMS |
Centro de Comercio y Servicios Regional
Tolima |
Fotografías y vectores tomados de www.freepik.es, www.shutterstock.com, unsplash.com y www.flaticon.com
Licencia creative commons CC BY-NC-SA
ver licencia
Este
material puede ser distribuido, copiado y exhibido por terceros si se muestra
en los créditos. No se puede obtener ningún beneficio comercial y las obras
derivadas tienen que estar bajo los mismos términos de la licencia que el
trabajo original.
No hay comentarios:
Publicar un comentario