EVOLUTION OF INFORMATICS.

38
1 This journal is designed for those people who look for knowing and wondering with different areas of informatics and how they are changing constantly in accordance to abilities and capacities from great people who propose to give aid and answers to the users. You are invited to admire a small part of this new generation. Elaborada por: KELLY MARIBETH AVENDAÑO GELVIZ. Cod. 201221179 Universidad Pedagógica y Tecnológica de Colombia. Ingeniería de sistemas y computación.

description

This journal is designed for those people who look for knowing and wondering with different areas of informatics and how they are changing constantly in accordance to abilities and capacities from great people who propose to give aid and answers to the users. You are invited to admire a small part of this new generation.

Transcript of EVOLUTION OF INFORMATICS.

Page 1: EVOLUTION OF INFORMATICS.

1

This journal is designed for those people who look for knowing and wondering with different areas of informatics and how they are changing

constantly in accordance to abilities and capacities from great people who propose to give aid and answers to the users. You are invited to admire a

small part of this new generation.

Elaborada por: KELLY MARIBETH AVENDAÑO GELVIZ.

Cod. 201221179

Universidad Pedagógica y Tecnológica de Colombia.

Ingeniería de sistemas y computación.

Page 2: EVOLUTION OF INFORMATICS.

2

INDICE

1. Realidad Aumentada (RA)……………………………….. 3

2. Robótica………………………………………………………….. 5

3. Calidad de Software………………………………………… 7

4. Herramientas de la Web 2.0……………………………. 9

5. Sistemas Expertos…………………………………………… 11

6. Seguridad Informática…………………………………….. 16

7. Telemedicina…………………………………………………… 18

8. Programación de Video Juegos……………………….. 20

9. Programación orientada a Objetos………………….. 22

10. Red de Computadores……………………………………… 24

11. Animación 3D…………………………………………………… 29

12. Sistemas Operativos………………………………………… 32

13. Inteligencia Artificial……………………………………….. 35

14. Audio Digital…………………………………………………….. 37

Page 3: EVOLUTION OF INFORMATICS.

3

1. REALIDAD

AUMENTADA (RA).

Es el término que se usa para definir

una visión directa o indirecta de un

entorno físico del mundo real, cuyos

elementos se combinan con

elementos virtuales para la creación

de una realidad mixta en tiempo real.

Consiste en un conjunto de

dispositivos que añaden información

virtual a la información física ya

existente, es decir, añadir una parte

sintética virtual a lo real. Esta es la

principal diferencia con la realidad

virtual, puesto que no sustituye la

realidad física, sino que sobreimprime

los datos informáticos al mundo real.

Cronología

1962: Morton Heilig, un director de fotografía, crea un simulador de moto llamado Sensorama con imágenes, sonido, vibración y olfato.

1973: Ivan Sutherland inventa la display de cabeza (HMD) lo que sugiere una ventana a un mundo virtual.

1985: Nacimiento de Hurto. Myron Krueger crea Videoplace que permite a los usuarios interactuar con objetos virtuales por primera vez.

1990: Jaron Lanier acuña el término realidad virtual y crea la primera actividad comercial en torno a los mundos virtuales.

1992: Tom Caudell crea el término Realidad Aumentada.

1994: Steven Feiner, Blair MacIntyre y Doree Seligmann primera utilización importante de un sistema de Realidad Aumentada en un prototipo, KARMA, presentado en la conferencia de la interfaz gráfica. Ampliamente citada en la publicación Communications of the ACM al siguiente año.

1999: Hirokazu Kato desarrolla ARToolKit en el HitLab y se presenta en SIGGRAPH ese año.

2000: Bruce H. Thomas desarrolla ARQuake, el primero juego al aire libre con dispositivos móviles de Realidad Aumentada, y se presenta en el International Symposium on Wearable Computers.

2008: AR Wikitude Guía sale a la venta el 20 de octubre de 2008 con el teléfono Android G1.

2009: AR Toolkit es portado a Adobe Flash (FLARToolkit) por Saqoosha, con lo que la realidad aumentada llega al navegador Web.

2009: Se crea el logo oficial de la Realidad Aumentada con el fin de estandarizar la identificación de la tecnología aplicada en cualquier soporte o medio por parte del público general. Desarrolladores, fabricantes, anunciantes o investigadores pueden descargar el logo original desde la web oficial

Page 4: EVOLUTION OF INFORMATICS.

4

2012: Google se lanza al diseño de unas gafas que crearían la primera realidad aumentada comercializada. Bautiza a su proyecto como Project Glass

.

Software Libre para Realidad

Aumentada

ARToolKit biblioteca GNU GPL que permite la creación de aplicaciones de realidad aumentada, desarrollado originalmente por Hirokazu Kato en 1999 y fue publicado por el HIT Lab de la Universidad de Washington. Actualmente se mantiene como un proyecto de código abierto alojado en SourceForge con licencias comerciales disponibles en ARToolWorks..

ATOMIC Authoring Tool - es un software Multi-plataforma para la creación de aplicaciones de realidad aumentada, el cual es un Front end para la biblioteca ARToolKit. Fue Desarrollado

para no-programadores, y permite crear rápidamente, pequeñas y sencillas aplicaciones de Realidad Aumentada. Está licenciado bajo la Licencia GNU GPL

ATOMIC Web Authoring Tool es un proyecto hijo de ATOMIC Authoring Tool que permite la creación de aplicaciones de realidad aumentada para exportarlas a cualquier sitio web. Es un Front end para la biblioteca Flartoolkit.Está licenciado bajo la Licencia GNU GPL

Técnicas de visualización

Existen tres técnicas principales para mostrar la realidad aumentada:

Display en la cabeza, Display de mano y Display espacial.

Page 5: EVOLUTION OF INFORMATICS.

5

Para mas información visite:

http://prezi.com/eqacpdxuwxo2/present/?auth_key=7qy1zmt&follow=brayan_carvaj

al

Bibliografía: http://prezi.com/eqacpdxuwxo2/present/?auth_key=7qy1zmt&follow=brayan_carvajal Expositor: Brayan Javier Carvajal Rivera.

Duración exposición: 19 minutos.

Fecha Exposición: 14 de agosto de 2012.

ABSTRACT

It is considered that augmented reality is the application that has changed the real

world and the virtual world at time instantaneous. It has been very successful not

only in the technology fields but also in the scientific and educational ones.as it

allows overlapping visual data included thermograph, museums and games among

others.

2. ROBÓTICA.

La robótica es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra, los autómatas programables, las máquinas de estados, la mecánica o la informática.

Page 6: EVOLUTION OF INFORMATICS.

6

Historia

La historia de la robótica ha estado unida a la construcción de “artefactos”, que trataban de materializar el deseo humano de crear seres semejantes a nosotros que nos descargasen del trabajo. El ingeniero español Leonardo Torres acuñó el término “automática” en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.

Sin embargo se espera que los resultados que no han sido satisfactorios en el campo de la robótica autónoma con el continuo aumento de la potencia de los ordenadores y las investigaciones en inteligencia artificial, visión artificial, la robótica autónoma y otras ciencias paralelas nos permitan acercarnos un poco más cada vez a los milagros soñados por los primeros ingenieros y también a los peligros que nos adelanta la ciencia ficción.

Isaac Asimos planteo las tres reglas fundamentales de la robótica:

1. Primera ley: Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.

2. Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.

3. Tercera ley: Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.

Los robots se clasifican en:

Según su cronología: 1ra generación: los manipuladores.(carros) 2da generación: De aprendizaje.(mano robótica) 3ra generación: Con control sensorizado. (Se activan desde otro lugar o mediante acciones utilizando dispositivos electrónicos). 4ta generación: Inteligentes.

Según su arquitectura( depende del tipo de configuración del robot):

Presentan características de precisión, repetitividad y exactitud.

A. Robots industriales: se utilizan para realizar trabajos repetitivos, pesados o peligrosos.

Page 7: EVOLUTION OF INFORMATICS.

7

B. Robots de servicio: ayudan a los hombres a realizar diferentes tipos de labores.

C. Robots de exploración: son aquellos que llegan a áreas de difícil acceso para el hombre. Ejemplo: submarinos y robot espaciales.

Para mas información visite:

http://prezi.com/kejvqwqhuuqu/present/?auth_key=50sukft&follow=aulpu7a8saev

Bibliografia:

http://prezi.com/kejvqwqhuuqu/present/?auth_key=50sukft&follow=aulpu7a8saev

Expositora: Sandra Milena Espitia.

Duración exposición: 14 minutos.

Fecha Exposición: 14 de agosto de 2012.

ABSTRACT

We can define the robotics as a branch of technology that trains the machines to

be capable to perform own labor of the human beings or requiring use of

intelligence. At present, Robotics has reached a high maturity level and it has

made possible a scope and innovation which were previously thought as

impossible.

3. CALIDAD DE SOFTWARE.

La calidad del software es una

preocupación a la que se dedican

muchos esfuerzos. Sin embargo, el

software casi nunca es perfecto. Todo

proyecto tiene como objetivo producir

software de la mejor calidad posible,

que cumpla, y si puede supere las

expectativas de los usuarios.

CALIDAD

Es la aptitud de un producto o servicio para satisfacer las necesidades del usuario.

Es la cualidad de todos los productos, no solamente de equipos sino también de programas.

Page 8: EVOLUTION OF INFORMATICS.

8

En el desarrollo de software, la calidad de diseño acompaña a la calidad de los requisitos, especificaciones y diseño del sistema.

Adicionalmente se puede seguir los siguientes aspectos para evaluar la calidad del software:

Calidad de software

Características propias del software aquellas que tu quieres controlar y asegurar, el software es un producto inmaterial que no se fabrica, tampoco se degradan físicamente, sino que se desarrolla. El software puede tener errores, incidencias pero no son similares a lo que cualquier equipo de carácter físico.

La calidad del software se encuentra casi a la par de la calidad tradicional, ligeramente detrás debido a que la calidad tradicional tiene varias décadas de historia, mientras que la calidad de software tiene entre 50 y 30 años de haber surgido.

Pasos para crear software: Diseño. Creación. Garantía de calidad.

Para mas información visite: http://prezi.com/o1zb10urncyt/calidad-de-software/

Bibliografía: http://prezi.com/o1zb10urncyt/calidad-de-software/

Expositor: Alexander Bonilla Moreno. Duración exposición: 11 minutos.

Fecha Exposición: 16 de agosto de 2012

ABSTRACT

We believe that one of the major problems currently presented into software

industry, it is absence of quality products. Quality of a software product is an

indicator to determine if the software building processes were suitable. So, it is

necessary to inquiry about methods and techniques guarantying quality products in

order to look concrete proposals for applications with specific features. For this,

proposals aimed to build quality software are being generated. They include

processes related to tries, quality metrics and software reengineering.

Page 9: EVOLUTION OF INFORMATICS.

9

4. HERRAMIENTAS DE LA WEB 2.0

La Web 2.0 es la siguiente

generación Web en donde las

aplicaciones son más interactivas. La

Web 2.0 provee una plataforma para

crear aplicaciones dinámicas, ricas e

interactivas. El término Web 2.0 fue

acuñado por O’Reilly Media y se

refiere a una nueva generación de

aplicaciones Web que provee

participación, colaboración e

interacción en línea a los usuarios.

Actualmente existen literalmente

miles de herramientas y aplicaciones

Web 2.0 disponibles en la Internet.

Estas pueden clasificarse en:

Publicidad, Blogging, Bookmarks,

Catálogos, Chat, Comunidades,

Colaborativas, Educativas, Correo,

Eventos, News Feeds, Búsqueda,

Compras, Etiquetamiento (Tagging),

Video, Widgets y Wiki.

Tipos de Herramientas Web 2.0 para Aprendizaje Colaborativo:

a) Blogging

b) Bookmarks

c) Community d) Collaborative

e) Education f) Management

g) Project Management h) RSS Feeds

i) Tagging j) Wiki

Los siguientes son criterios para implantar programas:

Suporte para comunicación y colaboración entre los participantes

Nivel de soporte para evaluar el nivel de participación de grupos e individuos

Número de actividades Web 2.0 y herramientas que se soportan

Que sea de código libre con licencia GPL y que sea libre de usar y modificar

Calidad del API Web 2.0, incluyendo soporte

Revisión Comparativa de Herramientas Web 2.0 Mindmeister : permite a los usuarios convertir texto en mapas mentales. Permite la colaboración en línea de varios usuarios en la elaboración colaborativa de mapas mentales.

Page 10: EVOLUTION OF INFORMATICS.

10

MediaWiki: es una herramienta gratuita liberada bajo la licencia GNU General License (GPL). Fue originalmente escrita para la Wikipedia y ahora se encuentra disponible para uso general. Fue diseñada para correr en granjas de servidores grandes dándole soporte a sitios que pueden llegar a tener millones de hits cada día.

PeopleAggregator: es una

aplicación Web 2.0 que sirve para

crear redes sociales personalizadas.

Fue desarrollada por Broadband

Mechanics (BBM), un desarrollador

importante de redes sociales de

etiqueta blanca y plataformas para

blogs.

Características de Google Docs - Crear documentos básicos

- Subir archivos en una variedad de formatos incluyendo DOC, XLS, ODT, ODS, RTF, CSV, PPT, etc.

- Los editores tienen las herramientas más comunes de las aplicaciones de escritorio

- Edición colaborativa.

- Compartición instantánea.

- Importar/Exportar en diversos formatos, incluyendo pdf .

- Administración de documentos

- Publicación en línea y control de accesos.

- Registros de cambios y control de versiones. En general Elgg ofrece:

- Administración de usuarios, objetos, archivos y el sitio en sí

- Graficación social que mapea las relaciones entre usuarios, objetos y sitios Web)

- Capacidad Multisitio para una misma instalación. - Soporte a la internacionalización extensible

- Búsqueda en todos los contenidos y usuarios en todo el sistema, basándose en etiquetas

- Control de acceso fino

- Múltiples vistas, permitiendo interfaces con aplicaciones móviles y widgets embebidos, y navegadores Web

- APIs para manejo de eventos, extensiones y widgets Elgg, como otras aplicaciones proporciona documentación completa relacionada con el uso, el desarrollo y las contribuciones a Elgg. MODx: es sistema de manejo de contenidos y plataforma de aplicaciones de código libre desarrollado en PHP y Ajax. Es fácil de usar y tiene una arquitectura flexible y modular. Proporciona optimización de contenidos y de búsqueda de los mismos basándose en Meta Etiquetas y palabras clave para hacer que las búsquedas sean más amigables. MODx es una aplicación Web 2.0 que puede realizar Blogging. Entre otros.

Para mas información visite: http://prezi.com/1f7ecb7rannz/present/?auth_key=bcel0lh&follow=lntwrwualu76

Page 11: EVOLUTION OF INFORMATICS.

11

Bibliografía: http://prezi.com/1f7ecb7rannz/present/?auth_key=bcel0lh&follow=lntwrwualu76 Expositora: Jennifer Aponte.

Duración exposición: 15 minutos.

Fecha Exposición: 16 de agosto de 2012.

ABSTRACT

In general, current applications of Web 2.0 try to be more dynamic and are

characterized as “social communities” where emphasis is placed on contribution

and participation from users. In contrast to traditional web, Web 2.0 offers more

than basic interaction and participation from users. Besides, it offers informatics

programs on line, which make easy to get contents through implementation of

platforms but as long as specialized tools are to be obtained.

5. SISTEMAS EXPERTOS.

Introducción Se creía que algunos problemas como la demostración de teoremas, el reconocimiento de la voz y el de patrones, ciertos juegos (como el ajedrez o las damas), y sistemas altamente complejos de tipo determinista o estocástico, debían ser resueltos por personas.

Page 12: EVOLUTION OF INFORMATICS.

12

Sin embargo, el trabajo realizado en las tres últimas décadas por investigadores procedentes de varios campos, muestra que muchos de estos problemas pueden ser formulados y resueltos por máquinas. El amplio campo que se conoce como INTELIGENCIA ARTIFICIAL (IA): La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseño de sistemas de computación inteligentes.

Barr y E. A. Feigenbaum, (1981)

¿Que es un Sistema Experto? Hay varias definiciones:

Los sistemas expertos son máquinas que piensan y razonan como un experto lo haría en una cierta especialidad o campo. Ejemplo: sistema experto en diagnostico medico.

Stevens (1984).

Un sistema experto puede definirse como un sistema informático (hardware y software) que simula a los expertos humanos en un área de especialización dada.

Castillo y Alvarez (1991) y Durkin (1994)

Ejemplos Ilustrativos:

a. Transacciones bancarias.

b. Control de tráfico.

Page 13: EVOLUTION OF INFORMATICS.

13

c. Diagnóstico medico: Utilizado para responder preguntas de carácter medico.

¿Por qué los Sistemas Expertos?

Hay varias razones para utilizar sistemas expertos. Las más importantes son:

A. Con la ayuda de un sistema experto, personal con poca experiencia puede resolver problemas que requieren un conocimiento de experto.

B. El conocimiento de varios expertos humanos puede combinarse, lo que da lugar a sistemas expertos más fiables, ya que se obtiene un sistema experto que combina la sabiduría colectiva de varios expertos humanos en lugar de la de uno solo.

C. Los sistemas expertos pueden responder a preguntas y resolver problemas

mucho más rápidamente que un experto humano. Por ello, los sistemas son muy valiosos en casos en los que el tiempo de respuesta es criticó.

D. En algunos casos, la complejidad del problema impide al experto humano

resolverlo. En otros casos la solución de los expertos humanos no es fiable. Debido a la capacidad de los ordenadores de procesar un elevadísimo número de operaciones complejas de forma rápida y aproximada, los sistemas expertos suministran respuestas rápidas y fiables en situaciones en las que los expertos humanos no pueden.

E. Los sistemas expertos pueden ser utilizados para realizar operaciones

monótonas, aburridas e inconfortables para los humanos.

Page 14: EVOLUTION OF INFORMATICS.

14

Tipos de Sistemas Expertos Los problemas con los que pueden tratar los sistemas expertos pueden clasificarse en dos tipos:

a. Problemas esencialmente deterministas :( También llamados sistemas basados en reglas)= Utilización del razonamiento lógico.

b. Problemas esencialmente estocásticos:(Al azar)= situaciones aleatorias

o de incertidumbre.

Arquitectura de un Sistema Experto

Page 15: EVOLUTION OF INFORMATICS.

15

Desarrollo de un Sistema Experto.

Weiss y Kulikowski (1984) sugieren las etapas siguientes para el diseño e implementación de un sistema experto.

“De Todo esto depende la calidad y el buen funcionamiento del sistema experto resultante.”

Page 16: EVOLUTION OF INFORMATICS.

16

Para mas información visite:

http://prezi.com/ywotef2d7luq/present/?auth_key=x1uzcmc&follow=uke0lpfp0p7o Bibliografía: http://prezi.com/ywotef2d7luq/present/?auth_key=x1uzcmc&follow=uke0lpfp0p7o Expositora: Kelly Maribeth Avendaño Gelviz. Duración exposición: 18 minutos.

Fecha Exposición: 16 de agosto de 2012.

ABSTRACT

We understood that expert systems require of several concepts acquired from

Computation Science, Mathematical Logic and Statistics and Probability among

others. So, it is required participation of several specialists in a particular area.

Likewise, to get a true Expert System, traditional functions related to manage of a

great lot of data must be performed but also manipulation of such data so that

result is intelligible and is meaningful to answer even no specified questions

completely. To several statistics, these expert systems have not reached in

developing countries yet; due to get these systems require a lot of money.

6. SEGURIDAD INFORMÁTICA

OBJETIVOS

Tenemos tres principalmente:

1. Mantener la información a salvo de las diferentes amenazas que se puedan

presentar en un medio informático atreves de la programación.

2. Brindar conocimiento de los diferentes métodos de seguridad.

3. Generar claves para mejorar la seguridad.

Page 17: EVOLUTION OF INFORMATICS.

17

MÉTODOS DE SEGURIDAD

Los antivirus: estos son accesibles y útiles en diferentes casos pero nunca

son 100% seguros.

Los contrafuegos: son usados principalmente en redes privadas y según la

programación que se le dé pueden permitir o no el acceso de diferentes

fuentes de información

Las VNP con sistema cifrado: básicamente son extensión de una red

privada que usa protocolos para mejorar la seguridad del medio en las que

estas se proyectan.

CAMPOS DE ACCIÓN

Financiero: ” pionero en el manejo de la seguridad informática”

Comunicación: “especialmente se enfocan en romper paradigmas”

Empresarial: Se encarga de crear software de seguridad para restringir

información importante.

Científico: para almacenar datos de información confidencial se requiere de una

seguridad informática de carácter privado.

TIPOS DE AMENAZA A LA SEGURIDAD INFORMÁTICA

Virus

1 Gusanos: se multiplican fácilmente.

2 Troyanos: se especializan en el robo de datos.

3 Backdoors: toman el control del ordenador infectado y manejan su

información.

4 Retrovirus: especializados en deñar el antivirus.

HACKER

Es una persona que pertenece a una de estas comunidades o subculturas

distintas pero no completamente independientes.

SUB CULTURAS

WHITE HAT: son los que mejoran la seguridad principalmente en las

empresas.

BLACK HAT: Son los que intentan romper la seguridad.

GREY HAT: Son lo que asesoran a los dos grupos anteriormente

mencionados.

Page 18: EVOLUTION OF INFORMATICS.

18

Para mas información visite:

http://prezi.com/2x_-mf9tujj7/seguridad-informatica/

Bibliografía: http://prezi.com/2x_-mf9tujj7/seguridad-informatica/ Expositor: Leonar Alejandro Castro Castro.

Duración exposición: 11 minutos.

Fecha Exposición: 16 de agosto de 2012.

ABSTRACT

Informatics security is essential in any action field that requires working with

software designed for a proposal. It is very important for users knowing about

different types of virus and how they affect the system because they are in daily

contact with the systems. On the other hand, hackers are people with great

technological skills who create or destroy safety barriers in accordance to their

goals. All of this makes part of computer security.

7. TELEMEDICINA

Es la herramienta que permite

adquirir tanto diagnóstico y

tratamiento, como también la

educación médica. Es un recurso

tecnológico que posibilita la

optimización de los servicios de

atención en salud o información.

Aplicaciones:

-Tele consulta: se utiliza para

diagnósticos seguros y es realizada

entre un medico general y un

especialista.

-Tele presencia: Asistencia de un

especialista a distancia con un

paciente esto se hace a través de

videoconferencia.

Page 19: EVOLUTION OF INFORMATICS.

19

-Trabajo cooperativo:

se realiza cuando se

necesita dar un

diagnostico

compartido, es decir,

varios especialistas de

un mismo nivel

científico.

-Tele monitorización:

permite al personal

sanitario encargado

del cuidado de

pacientes crónicos

realizar el

seguimiento del

estado de salud.

-Teleducación: se

utiliza para adquirir

conocimientos o

experiencias

medicas y adquirir

sabiduría o

experiencia a

través de ellas.

Para mas información visite:

http://prezi.com/gfhqitxwamd7/present/?auth_key=1u7qbsy&follow=fmqbkbnnmbhj

Bibliografia:

http://prezi.com/gfhqitxwamd7/present/?auth_key=1u7qbsy&follow=fmqbkbnnmbhj

Expositora: María Camila Buitrago.

Duración exposición: 13 min.

Fecha exposición: 23 de agosto de 2012.

ABSTRACT

By lecture, Telemedicine is an instrument that is used not only to provide medical

services but also to help to Health Sciences students at universities, allowing them

to save files (x-ray, ultrasounds etc.). Besides, this expert system has the ability to

give clear and precise diagnostics what leads to greater reliability treatment.

Page 20: EVOLUTION OF INFORMATICS.

20

8. PROGRAMACIÓN DE

VÍDEO JUEGOS.

Para programar un video juego se

requieren herramientas tales como:

gráficos, sonidos, información de

datos y principalmente algoritmos.

La programación de videojuegos es un proceso que pertenece a la creación de un videojuego. Este proceso es efectuado por un programador de videojuego gracias a la programación informática. Casi siempre, la programación de un videojuego se resume en repetir a trechos las siguientes acciones:

1. procesar las interacciones de un agente con su entorno según las entradas del usuario.

2. procesar los fenómenos indirectamente controlados por el usuario.

3. crear una imagen a partir de esas informaciones y mostrarlo en la pantalla (igual para el sonido).

El agente suele ser un personaje (el

jugador ganador) quien manda

entradas al programa mediante un

periférico que puede ser: un

teclado,joystick y controles remotos

La gestión de las interacciones

consiste en prever las acciones

posibles sobre el entorno, detectar si

han estado provocadas y procesar

respuestas.

La creación de un imagen en dos dimensiones suele empezar por el dibujo de los objetos les más lejos, y tal acercándose del jugador. Por ejemplo

Creación del fondo (el background) ayudándose de unos mosaicos (los tiles) propicios a los sistemas de desplazamiento (el scrolling) o simplemente de un fondo de pantalla (como para los antiguos juegos de aventura).

Añadidura de imágenes (sprites) usando un sistema de recorte que permite dibujar formas complejas mientras que es imprescindible que las imágenes sean rectangulares en la memoria.

Para mas información visite:

http://prezi.com/c6qh7-rm-_dm/edit/?auth_key=i0k8c4h&follow=uohnutjdpczl

Page 21: EVOLUTION OF INFORMATICS.

21

Bibliografía: http://prezi.com/c6qh7-rm-_dm/edit/?auth_key=i0k8c4h&follow=uohnutjdpczl Expositor: Yeison Oswaldo Boada Alvarez

Duración exposición: 5 minutos.

Fecha Exposición: 24 de agosto de 2012.

ABSTRACT

Video-games programming is an advance into entertainment field. Programming a

video game requires algorithms and concrete operations allowing to the player

getting full control on characters or elements finding in the environment through

using of Computer Peripherals.

9. PROGRAMACIÓN ORIENTADA A OBJETOS.

La programación orientada a objetos es una forma de programar que trata de encontrar una solución a estos problemas. Introduce nuevos conceptos, que superan y amplían conceptos antiguos ya conocidos. Entre ellos destacan los siguientes:

Clase: definiciones de las propiedades y comportamiento de un tipo de objeto concreto. La instanciación es la lectura de estas definiciones y la creación de un objeto a partir de ellas.

Herencia: (por ejemplo, herencia de la clase C a la clase D) Objeto: entidad provista de un conjunto de propiedades o atributos (datos)

y de comportamiento o funcionalidad (métodos) los mismos que consecuentemente reaccionan a eventos.

Método: Algoritmo asociado a un objeto (o a una clase de objetos), cuya ejecución se desencadena tras la recepción de un "mensaje".

Evento: Es un suceso en el sistema (tal como una interacción del usuario con la máquina, o un mensaje enviado por un objeto).

Mensaje: una comunicación dirigida a un objeto, que le ordena que ejecute uno de sus métodos con ciertos parámetros asociados al evento que lo generó.

Page 22: EVOLUTION OF INFORMATICS.

22

Propiedad o atributo: contenedor de un tipo de datos asociados a un objeto (o a una clase de objetos), que hace los datos visibles desde fuera del objeto y esto se define como sus características predeterminadas, y cuyo valor puede ser alterado por la ejecución de algún método.

Estado interno: es una variable que se declara privada, que puede ser únicamente accedida y alterada por un método del objeto.

Componentes de un objeto: atributos, identidad, relaciones y métodos. Identificación de un objeto: un objeto se representa por medio de una

tabla o entidad que esté compuesta por sus atributos y funciones correspondientes.

En comparación con un lenguaje imperativo, una "variable", no es más que un contenedor interno del atributo del objeto o de un estado interno, así como la "función" es un procedimiento interno del método del objeto.

Existe un acuerdo acerca de qué características contempla la "orientación a objetos", las características siguientes son las más importantes:

Abstracción: denota las características esenciales de un objeto, donde se capturan sus comportamientos. Cada objeto en el sistema sirve como modelo de un "agente" abstracto que puede realizar trabajo, informar y cambiar su estado, y "comunicarse" con otros objetos en el sistema sin revelar cómo se implementan estas características. El proceso de abstracción permite seleccionar las características relevantes dentro de un conjunto e

identificar comportamientos comunes para definir nuevos tipos de entidades en el mundo real.

Encapsulamiento:

Significa reunir a todos los elementos que

pueden considerarse pertenecientes a una misma entidad, al mismo nivel de abstracción. Esto permite aumentar la cohesión de los componentes del sistema. Algunos autores confunden este concepto con el principio de ocultación, principalmente porque se suelen emplear conjuntamente.

Modularidad: Se denomina Modularidad a la propiedad que permite subdividir una aplicación en partes más pequeñas (llamadas módulos),

Page 23: EVOLUTION OF INFORMATICS.

23

cada una de las cuales debe ser tan independiente como sea posible de la aplicación en sí y de las restantes partes. Estos módulos se pueden compilar por separado, pero tienen conexiones con otros módulos. Al igual que la encapsulación, los lenguajes soportan la Modularidad de diversas formas.

Principio de ocultación: Cada objeto está aislado del exterior, es un módulo natural, y cada tipo de objeto expone una interfaz a otros objetos que específica cómo pueden interactuar con los objetos de la clase. La aplicación entera se reduce a un agregado o rompecabezas de objetos.

Polimorfismo: comportamientos diferentes, asociados a objetos distintos, pueden compartir el mismo

nombre, al llamarlos por ese nombre se utilizará el comportamiento correspondiente al objeto que se esté usando. Cuando esto ocurre en "tiempo de ejecución", esta última característica se llama asignación tardía o asignación dinámica.

Herencia: las clases no están aisladas, sino que se relacionan entre sí, formando una jerarquía de clasificación. Los objetos heredan las propiedades y el comportamiento de todas las clases a las que pertenecen. La herencia organiza y facilita el polimorfismo y el encapsulamiento permitiendo a los objetos ser definidos y creados como tipos especializados de objetos preexistentes.

Para mas información visite: http://prezi.com/y-w2hwdfzgjw/edit/?auth_key=rrrevsz&follow=nh5cxngkjl6s Bibliografía: http://prezi.com/y-w2hwdfzgjw/edit/?auth_key=rrrevsz&follow=nh5cxngkjl6s Expositor: Diego Fernando Cante.

Duración exposición: 7 minutos.

Fecha Exposición: 24 de agosto de 2012.

Page 24: EVOLUTION OF INFORMATICS.

24

ABSTRACT

We can define programming aimed to objects where data and procedures are

separated and unrelated since only input data processing is sought in order to get

output data. Here, it is important the Heritage Organization to make easy

polymorphism and encapsulation what allows the objects to be created and defined

as special type ones.

10. RED DE COMPUTADORES.

Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.

Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor.

Clasificación de las redes

Una red puede recibir distintos calificativos de clasificación en base a distintas taxonomías: alcance, tipo de conexión, tecnología, etc.

Por alcance

Red de área personal, o PAN (Personal Area Network) en inglés, es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.

Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network), es una red de computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso.

Page 25: EVOLUTION OF INFORMATICS.

25

Red de área local, o LAN (Local Area Network), es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. No utilizan medios o redes de interconexión públicos.

Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas.

Red de área de campus, o CAN (Campus Area Network), es una red de computadoras de alta velocidad que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la interconexión.

Red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aún así limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de la localidad por medio de fibra óptica.

Redes de área amplia, o WAN (Wide Area Network), son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, etc.

Red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios.

Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras.

Page 26: EVOLUTION OF INFORMATICS.

26

Por tipo de conexión

Medios guiados

El cable coaxial se utiliza para transportar señales electromagnéticas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo y uno exterior denominado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes; los cuales están separados por un material dieléctrico que, en realidad, transporta la señal de información.

El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o más pares.

La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir.

Medios no guiados

Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas estaciones de la red.

Red por infrarrojos, permiten la comunicación entre dos nodos, usando una serie de leds infrarrojos para ello. Se trata de emisores/receptores de ondas infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcacen y

necesitan de visibilidad entre los dispositivos.

Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc.

Page 27: EVOLUTION OF INFORMATICS.

27

Por topología física

La red en bus se caracteriza por

tener un único canal de comunicaciones

(denominado bus, troncal o backbone) al

cual se conectan los diferentes

dispositivos.

En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera.

En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.

En una red en malla cada nodo está conectado a todos los otros.

En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central.

En una red mixta se da cualquier combinación de las anteriores.

Por grado de autentificación

'Red privada: se definiría como una red que puede usarla solo algunas personas y que están configuradas con clave de acceso personal.

Red de acceso público: se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal.

Page 28: EVOLUTION OF INFORMATICS.

28

Por grado de difusión:

Una intranet es una red de ordenadores privados que utiliza tecnología Internet para compartir dentro de una organización parte de sus sistemas de información y sistemas operacionales.

Por servicio o función

Una red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro.

Una red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje.

Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta.

Para mas información visite: http://prezi.com/ugie-wcdzl9n/present/?auth_key=95c9ghb&follow=jnsflte776gx Bibliografía: http://prezi.com/ugie-wcdzl9n/present/?auth_key=95c9ghb&follow=jnsflte776gx Expositor: Diego Alexander Fiaga.

Duración exposición: 11 minutos.

Fecha Exposición: 24 de agosto de 2012.

ABSTRACT

The main goal for creating a computer network is to share information and

resources at distance; ensure reliability and availability of the information; increase

the speed of data transmission and reduce total cost of these actions.

Page 29: EVOLUTION OF INFORMATICS.

29

11. ANIMACIÓN EN 3D.

El término gráficos 3D por computadora (o por ordenador) se refiere a trabajos de arte gráfico que son creados con ayuda de computadoras y programas especiales. En general, el término puede referirse también al proceso de crear dichos gráficos, o el campo de estudio de técnicas y tecnología relacionadas con los gráficos tridimensionales.

Un gráfico 3D difiere de uno bidimensional principalmente por la forma en que ha sido generado. Este tipo de gráficos se originan mediante un proceso de cálculos matemáticos sobre entidades geométricas tridimensionales producidas en un ordenador, y cuyo propósito es conseguir una proyección visual en dos dimensiones para ser mostrada en una pantalla o impresa en papel.

Creación de gráficos 3D

Modelado

La etapa de modelado consiste en ir dando forma a objetos individuales que luego serán usados en la escena. Existen diversos tipos de geometría para modelador con NURBS y modelado poligonal o subdivisión de superficies.

Iluminación

Creación de luces de diversos tipos puntuales, direccionales en área o volumen, con distinto color o propiedades. Esto es la clave de una animación.

Page 30: EVOLUTION OF INFORMATICS.

30

Animación

Los objetos se pueden animar en cuanto a:

Transformaciones básicas en los tres ejes (XYZ), rotación, escala y traslación.

Forma: o Mediante esqueletos: a los objetos se les puede asignar un

esqueleto, una estructura central con la capacidad de afectar la forma y movimientos de ese objeto. Esto ayuda al proceso de animación, en el cual el movimiento del esqueleto automáticamente afectará las porciones correspondientes del modelo. Véase también animación por cinemática directa (forward kinematic animation) y animación por cinemática inversa (inverse kinematic animation).

o Mediante deformadores: ya sean cajas de deformación (lattices) o cualquier deformador que produzca, por ejemplo, una deformación sinusoidal.

o Dinámicas: para simulaciones de ropa, pelo, dinámicas rígidas de objeto.

La animación es muy importante dentro de los gráficos porque en estas animaciones se intenta realizar el mero realismo, por lo cual se trabajan muchas horas.

Renderizado

Proceso final de generar la imagen 2D o animación a partir de la escena creada. Esto puede ser comparado a tomar una foto o en el caso de la animación, a filmar una escena de la vida real.

API de gráficos tridimensionales

Los gráficos 3D se han convertido en algo muy popular, particularmente en videojuegos, al punto que se han creado interfaces de programación de aplicaciones (API) especializadas para facilitar los procesos en todas las etapas de la generación de gráficos por computadora. Estas interfaces han demostrado ser vitales para los desarrolladores de hardware para gráficos por computadora, ya que proveen un camino al programador para acceder al hardware de manera abstracta, aprovechando las ventajas de tal o cual placa de video.

Page 31: EVOLUTION OF INFORMATICS.

31

Las siguientes interfaces para gráficos por computadora son particularmente populares:

OpenGL (Open Graphics Library) es una especificación estándar que define una API multilenguaje y multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz consiste en más de 250 funciones diferentes que pueden usarse para dibujar escenas tridimensionales complejas a partir de primitivas geométricas simples, tales como puntos, líneas y triángulos.

Direct3D es parte de DirectX (conjunto de bibliotecas para multimedia), propiedad de Microsoft. Consiste en una API para la programación de gráficos 3D. Está disponible tanto en los sistemas Windows de 32 y 64 bits, como para sus consolas Xbox y Xbox 360.

El nombre RenderMan puede crear confusión, en cualquier caso es propiedad de Pixar.

Para mas información visite: http://prezi.com/ycbk3rgadqgj/present/?auth_key=9l9spro&follow=nk9mdv7r-2ld

Bibliografía: http://prezi.com/ycbk3rgadqgj/present/?auth_key=9l9spro&follow=nk9mdv7r-2ld

Expositor: Jonathan Alejandro Estupiñan Sanchez.

Duración exposición: 17 minutos.

Fecha Exposición: 24 de agosto de 2012.

ABSTRACT

3D animation is one of the most used techniques and with more booms in TV and

film industry. In 3D animation, elements, characters and settings are built or

modeled in three dimensions or axes. We consider that this animation is very

important and didactic because it allows joining the virtual reality, the actual reality

and the augmented reality to create 3D animation that until recently it was believed

unattainable.

Page 32: EVOLUTION OF INFORMATICS.

32

12. SISTEMAS OPERATIVOS.

Un sistema operativo (SO) es un programa o conjunto

de programas que en un sistema informático gestiona

los recursos de hardware y provee servicios a los

programas de aplicación, ejecutándose en modo

privilegiado respecto de los restantes.

Uno de los propósitos del sistema operativo que

gestiona el núcleo intermediario consiste en gestionar

los recursos de localización y protección de acceso del

hardware, hecho que alivia a los programadores de

aplicaciones de tener que tratar con estos detalles. La

mayoría de aparatos electrónicos que utilizan

microprocesadores para funcionar, llevan incorporado

un sistema operativo (teléfonos móviles, reproductores de DVD, computadoras,

radios, enrutadores, etc

Los sistemas operativos más conocidos son los siguientes:

1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.

La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.

2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla

que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.

3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo.

4) Windows NT: Esta versión de Windows se especializa en las redes

Page 33: EVOLUTION OF INFORMATICS.

33

y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.

5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena.

6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que

cualquier persona puede aprender a usarlo

en muy

poco tiempo. Por

otro lado,

es muy bueno

para organi

zar archivos y

usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.

7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información.

Clasificación de los Sistemas Operativos

Los sistemas operativos pueden ser clasificados de la siguiente forma:

Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.

Multiprocesador: soporta el abrir un mismo programa en más de una CPU. Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multitramo: Permite que diversas partes de un solo programa funcionen al

mismo tiempo. Tiempo Real: Responde a las entradas inmediatamente. Los sistemas

operativos como DOS y UNIX, no funcionan en tiempo real.

Cómo funciona un Sistema Operativo

Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.

Page 34: EVOLUTION OF INFORMATICS.

34

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux.

Cómo se utiliza un Sistema Operativo

Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente.

Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.

Para mas información visite: http://prezi.com/1q02xhmvsooy/sistemas-operativos/ Bibliografía: http://prezi.com/1q02xhmvsooy/sistemas-operativos/ Expositor: Enmanuel German Alvarez Ortiz.

Duración exposición: 24minutos.

Fecha Exposición: 24 de agosto de 2012.

ABSTRACT

Operating system is the most important program or software of a computer since it

allows that other programs work. It is necessary to understand that every

computer needs a determined operating system in charge of making basic tasks

such as no losing information, holding connected the peripherals and other devices

interconnected. We can say that, computer programs would not exist without an

operating system for user service.

Page 35: EVOLUTION OF INFORMATICS.

35

13. INTELIGENCIA ARTIFICIAL (IA).

La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseño de sistemas de computación inteligentes, es decir, sistemas que exhiben las características que asociamos a la inteligencia en el comportamiento humano que se refiere a la comprensión del lenguaje, el aprendizaje, el razonamiento, la resolución de problemas, etc.

Barr y E. A. Feigenbaum, (1981) John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes." Hoy en día, el campo de la IA engloba varias subáreas tales como:

1) Los sistemas expertos. 2) La demostración automática de teoremas. 3) El juego automático. 4) El reconocimiento de la voz y de patrones, 5) El procesamiento del lenguaje natural. 6) La visión artificial. 7) La robótica, 8) Las redes neuronales.

Aunque los sistemas expertos constituyen una de las áreas de investigación en el campo de la IA, la mayor parte de las restantes áreas, si no todas, disponen de una componente de sistemas expertos formando parte de ellas.

Antecedentes Históricos:

En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.

En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.

En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución

Page 36: EVOLUTION OF INFORMATICS.

36

de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.

En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.

Categorías de la inteligencia Artificial:

Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.

Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.

Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.

Sistemas que actúan racionalmente (idealmente). Tratan de emular en forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.

Para mas información visite:

http://prezi.com/zh00n8hz_pqi/present/?auth_key=ud958sy&follow=svkwv_wbwek

p

Bibliografía:

http://prezi.com/zh00n8hz_pqi/present/?auth_key=ud958sy&follow=svkwv_wbwek

p

Expositora: Lina Maritza Castro Forero.

Duración exposición: 6 minutos.

Fecha Exposición: 24 de agosto de 2012.

Page 37: EVOLUTION OF INFORMATICS.

37

ABSTRACT

It has known and understood the components considered in artificial intelligence;

planning a system comes to possess features and abilities previously considered

own of human being (no transferable). Besides, “artificial neurons” term is in

evolution given that, more skills are designed to be implanted in these systems

every day.

14. AUDIO DIGITAL

El audio digital es la codificación

digital de una señal eléctrica que

representa una onda sonora.

Consiste en una secuencia de valores

enteros y se obtienen de dos

procesos: el muestreo y la

cuantificación digital de la señal

eléctrica.

El muestreo: El muestreo

consiste en fijar la amplitud de

la señal eléctrica a intervalos

regulares de tiempo (tasa de

muestreo).

La cuantificación digital: La

cuantificación consiste en

convertir el nivel de las

muestra fijadas en el proceso

de muestreo, normalmente, un

nivel de tensión, en un valor

entero de rango finito y

predeterminado.

Tasa de muestreo

Es el número de muestras con las

que se realiza el proceso de

muestreo en una unidad de

tiempo y posteriormente

determina exclusivamente la

frecuencia máxima de los

componentes armónicos que

formar parte del material a

digitalizar.

Historia del Audio Digital.

El primer audio digital aparece a

finales de la década de los 50, el

primer hombre en producir

sonidos con un ordenador simple

fue MAX MATHEWS y luego de

los 80 aparecieron los primeros

sintetizadores digitales.

Page 38: EVOLUTION OF INFORMATICS.

38

.En 1979 compañías como Philips y Sony desarrollan el primer Compac Disc,

abriendo paso a la creación del formato digital que revoluciono el concepto de

audio digital al desarrollado Mp3 en el año de 1995 y considera como formato

digital por excelencia.

¿Que es la edición digital de

audio?

Es el proceso desarrollado por un

software en el cual se altera la

composición original de un archivo de

audio, ya sea sobre poniendo o

ecualizando dicho archivo.

Algunos programas recomendados para

edición de audio son:

o Sony Acid Pro

o Adobe Audio

o Sonar 6

o Pro Tools.

Para mas información visite:

http://prezi.com/-ss4pckin_n0/edit/?auth_key=ocq6dr9&follow=t4yf-tqyl3xd#8

Bibliografía:

http://prezi.com/-ss4pckin_n0/edit/?auth_key=ocq6dr9&follow=t4yf-tqyl3xd#8

Expositor: Juan José Contreras Otálora.

Duración exposición: 5 minutos.

Fecha Exposición: 24 de agosto de 2012.

ABSTRACT

Thanks to new technologies raised from the fifties, we achieve to know the edition

of the audio. It was one of the greatest advances of music by adapting the first

digital keyboard that was capable to reproduce the prerecorded sounds.

Undoubtedly, it was a great advance since important musical companies made this

tool available to us in each of the computers.