martes, 17 de marzo de 2015

lunes, 16 de marzo de 2015

USOS DE LA WEB 2.0

 Continuando con la entrada hecha a finales del 2012 “Evolución de la WEB y el B-Learning”, existen visiones diferentes entre estudiantes y docentes del cómo ha aportado la incorporación de herramientas web 2.0 en el escenario educativo. Es indudable que quienes ven una ventaja comparativa a los métodos orales tradicionales, tendrán mejores resultados en la utilización de estas herramientas, venciendo resistencia al cambio e incluso ahondando en caminos que le son más naturales y conocidos a medida que pasa el tiempo y práctica. Como plantea Santa rosa et al (2010) existen ventajas y desventajas que pueden acercar o alejar aún más a los docentes y estudiantes en el uso de herramientas web 2.0. 


BENEFICIOS DE LA WEB 2.0



  • El aprendizaje es más eficiente, ya que los estudiantes incorporan trabajo colaborativo siendo parte activa del mismo. Este construye conocimiento de forma colectiva volviéndose parte activa del ejercicio y generando nuevas inquietudes que estarán resueltas de forma objetiva por el docente o tutor que tiene un menor protagonismo.

  • Optimización de la comunicación. Existe una mejor forma de comunicarse entre los participantes del ejercicio académico, tanto entre estudiantes como entre estudiante y docente de forma sincrónica o a sincrónica, esta última rompiendo barreras de tiempo y espacio.

  • Incremento de interés en herramientas web.   En gran número de casos se incrementa la actividad en la web perdiendo el miedo y entrando con mayor naturalidad a usar herramientas que posiblemente antes le eran desconocidas o a reafirmar el uso de las mismas para aquellos que ya tenían práctica. De igual forma con la diversificación del uso de diferentes herramientas web 2.0 podrán ver los beneficios del aprendizaje colaborativo. 
 
YOUTUBE WEB 2.0

DESCRIPCIÓN:  YOUTUBE es uno de los más popular gestores de vídeos en Internet, aunque existen otros como el de Google que también resulta muy sencillos de utilizar.


DEFINICIÓN: YOUTUBE es un portal del INTERNET que permite a sus usuarios subir y visualizar VIDEOS. Fue creado en febrero de 2005 por Chad HurleySteve Chen y Jawed Karim, quienes se conocieron trabajando en PAYPAL. Un año más tarde, YOUTUBE fue adquirido por GOOGLE en 1.650 millones de dólares.

CARACTERÍSTICASYOUTUBE mantiene una logística que permite localizar cualquier vídeo por medio de las etiquetas de meta dato, títulos y descripciones que los usuarios asignan a sus vídeos
-Comparten día a día cada uno de sus vídeos
-La duración de los vídeos, ya podremos subir vídeos que puedan constar de hasta 15 minutos
-Lo muestran ahora de una forma más atractiva cuando finaliza cada vídeo
-Posibilidad de subir 10 vídeos a la vez 

FUNCIONES:
 -Crear una cuenta en la pagina 
-Subir vídeos,
-Tener seguidores, 
-Crearte una fama en el canal si es que tus vídeos son de interés hacia la gente
-Cuando abras la pagina, YOUTUBE te mostrara los vídeos que creen van mas con tus gustos 
-Puedes guardar todos los vídeos que sean de tu agrado por medio de la opción favoritos 
-Puedes reportar un abuso a los vídeos que crees que tengan contenido inapropiado y que no cumplan las normas. 
-Conocer gente 
-Poder suscribirte o ingresar a los canales de otras personas en los que te hayan gustado sus vídeos de esta manera podrás ver los otros que ha subido dicha persona.
-Publicar los vídeos que te hayan gustado en tu página de facebook, twitter o myspace
-La más importante: te permite ver vídeos de toda clase desde vídeos caseros, comedia, reportajes, historia, de películas,  música, entre otros muchos géneros.

miércoles, 11 de marzo de 2015


código de depuración


es el proceso de identificar y corregir errores de programación. En inglés se le conoce como debutante, es que se asemeja a la eliminación de bichos , manera en que se conoce informalmente a los errores de programación. Se dice que el término bug proviene de la época de los ordenadores de válvulas de termodinámica, en los cuales los problemas se generaban por los insectos que eran atraídos por las luces y estropeaban el equipo. Si bien existen técnicas para la revisión sistemática del código fuente y se cuenta con medios computación  para la detección de errores (depurad) y facilidades integradas en los sistemas lower case y en los ambientes de desarrollo integrado, sigue siendo en buena medida una actividad manual, que desafía la paciencia, la imaginación y la intuición del programador.


prueba de escritorio 


La prueba de escritorio es una herramienta útil para entender que hace un determinado algoritmo, o para verificar que un algoritmo cumple con la especificación sin necesidad de ejecutarlo. 

Básicamente, una prueba de escritorio es una ejecución ‘a mano’ del algoritmo, por lo tanto se debe llevar registro de los valores que va tomando cada una de las variables involucradas en el mismo.








viernes, 6 de marzo de 2015


¿Que es información?
Es un conjunto organizado de datos procesados, es un mensaje  que cambia el estado de conocimiento de la persona o del sistema que recibe ese mensaje.


Es la acción de informar referida a comunicar una noticia sobre algo,declarar,entender,Tamben se utiliza esta palabra para designar a los conocimientos que se añaden a los que ya se poseen en un área determinada

¿Qué es informática?

Es una ciencia que estudia métodos, procesos, técnicas, con el propósito de almacenar, procesar  y transmitir información y datos en forma digital


Cuadro comparativo
información
informática
Es un conjunto de datos acerca de algún suceso, hecho, fenómeno o situación, que organizados en un contexto determinado tienen su significado, cuyo propósito puede ser el de reducir la incertidumbre o incrementar el conocimiento acerca de algo.

Es la disciplina que estudia el tratamiento automático de la información utilizando dispositivos electrónicos y sistemas comunicacionales  En lo que hoy conocemos como informática confluyen muchas de las técnicas y de las máquinas que el hombre ha desarrollado a lo largo de la historia para apoyar y potenciar sus capacidades de memoria, de pensamiento y de comunicación. 

miércoles, 4 de marzo de 2015



Sofía Patiño Granada – Tatsunori Oseto Gómez – David Steven Rojas 10°a
Historia Del Computador: En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó la máquina de calcular de Pascal e inventó una que también podía multiplicar.

El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense
 Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.
En el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos.
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios, esta máquina se evalúa a las aproximaciones numéricas de ecuaciones demasiado difíciles como para ser resueltas mediante otros métodos, durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la distancia de las bombas en la aviación.
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: el Colossus. Hacia diciembre de 1943 el Colossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico electrónico.
El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.
A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas, A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. 
Evolución Del Computador
El hombre a lo largo de la historia ha sentido la necesidad de agrupar las cosas de diferentes formas utilizando cálculos matemáticos que le servían de gran utilidad para su subsistencia utilizando las herramientas disponibles en su entorno, creando sistemas numéricos de forma inocente como es el ejemplo del hombre primitivo que utilizo los dedos de las manos para contar lo cual le dio origen al sistema decimal de numeración cuyo nombre se origina de la palabra "dedo".
Además el hombre primitivo utilizaba piedras para agruparlas y realizar los cálculos dando origen al primer instrumento de cálculo llamado ábaco. El cual fue utilizado y desarrollados por egipcios y babilónicos aproximadamente 3.000 años antes de cristo.
En el siglo XVI y XVII debido al crecimiento del comercio en EUROPA y al crecimiento de la navegación, el hombre vio la necesidad de crear un mecanismo que felicitará los cálculos para el comercio lo cual dio origen a la creación de nuevas reglas de cálculos (logaritmos de neper) y creando maquinas que facilitaron anteriormente mencionado.
Durante un siglo se hicieron intentos por mejorar las máquinas de cálculo intentando disminuir la intervención del hombre para así disminuir la probabilidad de error como lo hizo charles Babbage el que se considera el padre de la informática, más los pocos avances de las ciencias matemáticas y físicas que impedían a las maquinas realizar cálalos más complejos.



                                                                                                                                                                                                                                           

martes, 3 de marzo de 2015

lunes, 2 de marzo de 2015


practica de sistemas