Inicio Cursos Sobre AIU Contacto
Contenido del curso
Estadísticas
Plan de Estudios
Lecciones
Recursos
Estadísticas: Lesson
Estadísticas: Lesson

Lección 1: Conceptos Fundamentales de Álgebra

1.1. Antecedentes. Desde el siglo XVII AC. los matemáticos de Mesopotámia y de Babilonia ya sabían resolver ecuaciones de primero y segundo grado. Además resolvían también, algunos sistemas de ecuaciones con dos ecuaciones y dos incógnitas.
En el siglo III el matemático griego Diofanto de Alejandría publicó su Aritmética en la cual, por primera vez en la historia de las matemáticas griegas, se trataron de una forma rigurosa no sólo las ecuaciones de primer grado, sino también las de segundo. Introdujo un simbolismo algebraico muy elemental al designar la incógnita con un signo que es la primera sílaba de la palabra griega arithmos, que significa número. Los problemas de álgebra que propuso prepararon el terreno de lo que siglos más tarde sería "la teoría de ecuaciones". A pesar de lo rudimentario de su notación simbólica y de lo poco elegantes que eran los métodos que usaba, se le puede considerar como uno de los precursores del álgebra moderna.
En 1202, después de viajar al norte de África y a Oriente, donde aprendió el manejo del sistema de numeración indoarábigo, Fibonacci publicó el Liber Abaci (Tratado del Ábaco) obra que en los siguientes tres siglos fue la fuente principal para todos aquellos estudiosos de la aritmética y el álgebra

1.2. Los números reales
1.3. La recta numérica
1.4. Expresiones algebraicas ecuaciones

Video Conferencia: Conceptos Fundamentales de Álgebra
Materiales de Lectura y Estudio
Examen de la Lección

Leccion 2: Geometría Analítica

2.1. Antecedentes. La geometría analítica es la rama de la geometría en la que las líneas rectas, las curvas y las figuras geométricas se representan mediante expresiones algebraicas y numéricas usando un conjunto de ejes y coordenadas. Cualquier punto del plano se puede localizar con respecto a un par de ejes perpendiculares dando las distancias del punto a cada uno de los ejes. 
La geometría avanzó muy poco desde el final de la era griega hasta la edad media. El siguiente paso importante en esta ciencia lo dio el filósofo y matemático francés René Descartes, cuyo tratado El Discurso del Método, publicado en 1637, hizo época. Este trabajo fraguó una conexión entre la geometría y el álgebra al demostrar cómo aplicar los métodos de una disciplina en la otra. Éste es un fundamento de la geometría analítica, en la que las figuras se representan mediante expresiones algebraicas, sujeto subyacente en la mayor parte de la geometría moderna
2.2. Sistemas de Coordenadas
2.3. Conceptos fundamentales
2.4. Línea Recta

Video Conferencia: La organización para una administración estratégica
Materiales de Lectura y Estudio
Examen de la Lección

Leccion 3: Estadística Descriptiva

3.1. Antecedentes. 
3.2. Medidas de tendencia central. Los promedios son una medida de posición que dan una descripción compacta de como están centrados los datos y una visualización más clara del nivel que alcanza la variable, pueden servir de base para medir o evaluar valores extremos o raros y brinda mayor facilidad para efectuar comparaciones.
Es importante poner en relieve que la notación de promedio lleva implícita la idea de variación y que este número promedio debe cumplir con la condición de ser representativo de conjunto de datos.
El promedio como punto típico de los datos es el valor al rededor del cual se agrupan los demás valores de la variable.

3.3. Cuartales
3.4. Medidas de Dispersión
3.5. Tratamiento y organización de datos
3.6. Análisis de datos univariados
3.7. Análisis de datos bi-variados
3.8. Graficas de distribución de frecuencia

Video Conferencia: Estrategia y ventaja competitiva
Materiales de Lectura y Estudio
Examen de la Lección 

Leccion 4: Probabilidad y Estadística

4.1. Introducción a la Probabilidad elemental
4.2. Distribución Discreta
4.3. Distribución Continua
4.4. Estadística Inferencial. La inferencia estadística es una parte de la Estadística que comprende los métodos y procedimientos para deducir propiedades (hacer inferencias) de una población, a partir de una pequeña parte de la misma (muestra). 
La distribución de las muestras de tamaño n extraídas de una población se distribuyen siempre en forma normal: 
Si tenemos una muestra aleatoria de una población N(m,s ), se sabe (Teorema del límite central) que la fdp de la media muestral es también normal con media m y varianza s2/n. Esto es exacto para poblaciones normales y aproximado 
(buena aproximación con n>30) para poblaciones cualesquiera. Es decir es el error típico, o error estándar de la media. 
¿Cómo usamos esto en nuestro problema de estimación? 1º problema: No hay tablas para cualquier normal, sólo para la normal m=0 y s=1 (la llamada z); pero haciendo la transformación (llamada tipificación)

Video Conferencia: Administración de la organización interna 
Materiales de Lectura y Estudio
Examen de la Lección 

Leccion 5: Estadística Analítica

5.1. Diseño de experimentos y análisis de varianza
5.2. Regresión Simple y correlación
5.3. Regresión Múltiple y Correlación
5.4. Teoría del Muestreo. La confianza o el porcentaje de confianza es el porcentaje de seguridad que existe para generalizar los resultados obtenidos. Esto quiere decir que un porcentaje del 100% equivale a decir que no existe ninguna duda para generalizar tales resultados, pero también implica estudiar a la totalidad de los casos de la población. 
Para evitar un costo muy alto para el estudio o debido a que en ocasiones llega a ser prácticamente imposible el estudio de todos los casos, entonces se busca un porcentaje de confianza menor. Comúnmente en las investigaciones sociales se busca un 95%. 

El error o porcentaje de error equivale a elegir una probabilidad de aceptar una hipótesis que sea falsa como si fuera verdadera, o la inversa: rechazar a hipótesis verdadera por considerarla falsa. Al igual que en el caso de la confianza, si se quiere eliminar el riesgo del error y considerarlo como 0%, entonces la muestra es del mismo tamaño que la población, por lo que conviene correr un cierto riesgo de equivocarse. 
Comúnmente se aceptan entre el 4% y el 6% como error, tomando en cuenta de que no son complementarios la confianza y el error. 

La variabilidad es la probabilidad (o porcentaje) con el que se aceptó y se rechazó la hipótesis que se quiere investigar en alguna investigación anterior o en un ensayo previo a la investigación actual. El porcentaje con que se aceptó tal hipótesis se denomina variabilidad positiva y se denota por p, y el porcentaje con el que se rechazó se la hipótesis es la variabilidad megativa, denotada por q.

Video Conferencia: Administración de la organización interna
Materiales de Lectura y Estudio
Examen de la Lección

Evaluacion Final del curso Estadísticas

Examen: Curso Estadísticas