EVOLUTION OF INFORMATICS.
-
Upload
kelly-avendano -
Category
Documents
-
view
222 -
download
0
description
Transcript of EVOLUTION OF INFORMATICS.
1
This journal is designed for those people who look for knowing and wondering with different areas of informatics and how they are changing
constantly in accordance to abilities and capacities from great people who propose to give aid and answers to the users. You are invited to admire a
small part of this new generation.
Elaborada por: KELLY MARIBETH AVENDAÑO GELVIZ.
Cod. 201221179
Universidad Pedagógica y Tecnológica de Colombia.
Ingeniería de sistemas y computación.
2
INDICE
1. Realidad Aumentada (RA)……………………………….. 3
2. Robótica………………………………………………………….. 5
3. Calidad de Software………………………………………… 7
4. Herramientas de la Web 2.0……………………………. 9
5. Sistemas Expertos…………………………………………… 11
6. Seguridad Informática…………………………………….. 16
7. Telemedicina…………………………………………………… 18
8. Programación de Video Juegos……………………….. 20
9. Programación orientada a Objetos………………….. 22
10. Red de Computadores……………………………………… 24
11. Animación 3D…………………………………………………… 29
12. Sistemas Operativos………………………………………… 32
13. Inteligencia Artificial……………………………………….. 35
14. Audio Digital…………………………………………………….. 37
3
1. REALIDAD
AUMENTADA (RA).
Es el término que se usa para definir
una visión directa o indirecta de un
entorno físico del mundo real, cuyos
elementos se combinan con
elementos virtuales para la creación
de una realidad mixta en tiempo real.
Consiste en un conjunto de
dispositivos que añaden información
virtual a la información física ya
existente, es decir, añadir una parte
sintética virtual a lo real. Esta es la
principal diferencia con la realidad
virtual, puesto que no sustituye la
realidad física, sino que sobreimprime
los datos informáticos al mundo real.
Cronología
1962: Morton Heilig, un director de fotografía, crea un simulador de moto llamado Sensorama con imágenes, sonido, vibración y olfato.
1973: Ivan Sutherland inventa la display de cabeza (HMD) lo que sugiere una ventana a un mundo virtual.
1985: Nacimiento de Hurto. Myron Krueger crea Videoplace que permite a los usuarios interactuar con objetos virtuales por primera vez.
1990: Jaron Lanier acuña el término realidad virtual y crea la primera actividad comercial en torno a los mundos virtuales.
1992: Tom Caudell crea el término Realidad Aumentada.
1994: Steven Feiner, Blair MacIntyre y Doree Seligmann primera utilización importante de un sistema de Realidad Aumentada en un prototipo, KARMA, presentado en la conferencia de la interfaz gráfica. Ampliamente citada en la publicación Communications of the ACM al siguiente año.
1999: Hirokazu Kato desarrolla ARToolKit en el HitLab y se presenta en SIGGRAPH ese año.
2000: Bruce H. Thomas desarrolla ARQuake, el primero juego al aire libre con dispositivos móviles de Realidad Aumentada, y se presenta en el International Symposium on Wearable Computers.
2008: AR Wikitude Guía sale a la venta el 20 de octubre de 2008 con el teléfono Android G1.
2009: AR Toolkit es portado a Adobe Flash (FLARToolkit) por Saqoosha, con lo que la realidad aumentada llega al navegador Web.
2009: Se crea el logo oficial de la Realidad Aumentada con el fin de estandarizar la identificación de la tecnología aplicada en cualquier soporte o medio por parte del público general. Desarrolladores, fabricantes, anunciantes o investigadores pueden descargar el logo original desde la web oficial
4
2012: Google se lanza al diseño de unas gafas que crearían la primera realidad aumentada comercializada. Bautiza a su proyecto como Project Glass
.
Software Libre para Realidad
Aumentada
ARToolKit biblioteca GNU GPL que permite la creación de aplicaciones de realidad aumentada, desarrollado originalmente por Hirokazu Kato en 1999 y fue publicado por el HIT Lab de la Universidad de Washington. Actualmente se mantiene como un proyecto de código abierto alojado en SourceForge con licencias comerciales disponibles en ARToolWorks..
ATOMIC Authoring Tool - es un software Multi-plataforma para la creación de aplicaciones de realidad aumentada, el cual es un Front end para la biblioteca ARToolKit. Fue Desarrollado
para no-programadores, y permite crear rápidamente, pequeñas y sencillas aplicaciones de Realidad Aumentada. Está licenciado bajo la Licencia GNU GPL
ATOMIC Web Authoring Tool es un proyecto hijo de ATOMIC Authoring Tool que permite la creación de aplicaciones de realidad aumentada para exportarlas a cualquier sitio web. Es un Front end para la biblioteca Flartoolkit.Está licenciado bajo la Licencia GNU GPL
Técnicas de visualización
Existen tres técnicas principales para mostrar la realidad aumentada:
Display en la cabeza, Display de mano y Display espacial.
5
Para mas información visite:
http://prezi.com/eqacpdxuwxo2/present/?auth_key=7qy1zmt&follow=brayan_carvaj
al
Bibliografía: http://prezi.com/eqacpdxuwxo2/present/?auth_key=7qy1zmt&follow=brayan_carvajal Expositor: Brayan Javier Carvajal Rivera.
Duración exposición: 19 minutos.
Fecha Exposición: 14 de agosto de 2012.
ABSTRACT
It is considered that augmented reality is the application that has changed the real
world and the virtual world at time instantaneous. It has been very successful not
only in the technology fields but also in the scientific and educational ones.as it
allows overlapping visual data included thermograph, museums and games among
others.
2. ROBÓTICA.
La robótica es una ciencia o rama de la tecnología, que estudia el diseño y construcción de máquinas. Las ciencias y tecnologías de las que deriva podrían ser: el álgebra, los autómatas programables, las máquinas de estados, la mecánica o la informática.
6
Historia
La historia de la robótica ha estado unida a la construcción de “artefactos”, que trataban de materializar el deseo humano de crear seres semejantes a nosotros que nos descargasen del trabajo. El ingeniero español Leonardo Torres acuñó el término “automática” en relación con la teoría de la automatización de tareas tradicionalmente asociadas a los humanos.
Sin embargo se espera que los resultados que no han sido satisfactorios en el campo de la robótica autónoma con el continuo aumento de la potencia de los ordenadores y las investigaciones en inteligencia artificial, visión artificial, la robótica autónoma y otras ciencias paralelas nos permitan acercarnos un poco más cada vez a los milagros soñados por los primeros ingenieros y también a los peligros que nos adelanta la ciencia ficción.
Isaac Asimos planteo las tres reglas fundamentales de la robótica:
1. Primera ley: Un robot no puede causar daño a un ser humano ni, por omisión, permitir que un ser humano sufra daños.
2. Segunda ley: Un robot debe obedecer las órdenes dadas por los seres humanos, salvo cuando tales órdenes entren en conflicto con la Primera Ley.
3. Tercera ley: Un robot ha de proteger su existencia, siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Los robots se clasifican en:
Según su cronología: 1ra generación: los manipuladores.(carros) 2da generación: De aprendizaje.(mano robótica) 3ra generación: Con control sensorizado. (Se activan desde otro lugar o mediante acciones utilizando dispositivos electrónicos). 4ta generación: Inteligentes.
Según su arquitectura( depende del tipo de configuración del robot):
Presentan características de precisión, repetitividad y exactitud.
A. Robots industriales: se utilizan para realizar trabajos repetitivos, pesados o peligrosos.
7
B. Robots de servicio: ayudan a los hombres a realizar diferentes tipos de labores.
C. Robots de exploración: son aquellos que llegan a áreas de difícil acceso para el hombre. Ejemplo: submarinos y robot espaciales.
Para mas información visite:
http://prezi.com/kejvqwqhuuqu/present/?auth_key=50sukft&follow=aulpu7a8saev
Bibliografia:
http://prezi.com/kejvqwqhuuqu/present/?auth_key=50sukft&follow=aulpu7a8saev
Expositora: Sandra Milena Espitia.
Duración exposición: 14 minutos.
Fecha Exposición: 14 de agosto de 2012.
ABSTRACT
We can define the robotics as a branch of technology that trains the machines to
be capable to perform own labor of the human beings or requiring use of
intelligence. At present, Robotics has reached a high maturity level and it has
made possible a scope and innovation which were previously thought as
impossible.
3. CALIDAD DE SOFTWARE.
La calidad del software es una
preocupación a la que se dedican
muchos esfuerzos. Sin embargo, el
software casi nunca es perfecto. Todo
proyecto tiene como objetivo producir
software de la mejor calidad posible,
que cumpla, y si puede supere las
expectativas de los usuarios.
CALIDAD
Es la aptitud de un producto o servicio para satisfacer las necesidades del usuario.
Es la cualidad de todos los productos, no solamente de equipos sino también de programas.
8
En el desarrollo de software, la calidad de diseño acompaña a la calidad de los requisitos, especificaciones y diseño del sistema.
Adicionalmente se puede seguir los siguientes aspectos para evaluar la calidad del software:
Calidad de software
Características propias del software aquellas que tu quieres controlar y asegurar, el software es un producto inmaterial que no se fabrica, tampoco se degradan físicamente, sino que se desarrolla. El software puede tener errores, incidencias pero no son similares a lo que cualquier equipo de carácter físico.
La calidad del software se encuentra casi a la par de la calidad tradicional, ligeramente detrás debido a que la calidad tradicional tiene varias décadas de historia, mientras que la calidad de software tiene entre 50 y 30 años de haber surgido.
Pasos para crear software: Diseño. Creación. Garantía de calidad.
Para mas información visite: http://prezi.com/o1zb10urncyt/calidad-de-software/
Bibliografía: http://prezi.com/o1zb10urncyt/calidad-de-software/
Expositor: Alexander Bonilla Moreno. Duración exposición: 11 minutos.
Fecha Exposición: 16 de agosto de 2012
ABSTRACT
We believe that one of the major problems currently presented into software
industry, it is absence of quality products. Quality of a software product is an
indicator to determine if the software building processes were suitable. So, it is
necessary to inquiry about methods and techniques guarantying quality products in
order to look concrete proposals for applications with specific features. For this,
proposals aimed to build quality software are being generated. They include
processes related to tries, quality metrics and software reengineering.
9
4. HERRAMIENTAS DE LA WEB 2.0
La Web 2.0 es la siguiente
generación Web en donde las
aplicaciones son más interactivas. La
Web 2.0 provee una plataforma para
crear aplicaciones dinámicas, ricas e
interactivas. El término Web 2.0 fue
acuñado por O’Reilly Media y se
refiere a una nueva generación de
aplicaciones Web que provee
participación, colaboración e
interacción en línea a los usuarios.
Actualmente existen literalmente
miles de herramientas y aplicaciones
Web 2.0 disponibles en la Internet.
Estas pueden clasificarse en:
Publicidad, Blogging, Bookmarks,
Catálogos, Chat, Comunidades,
Colaborativas, Educativas, Correo,
Eventos, News Feeds, Búsqueda,
Compras, Etiquetamiento (Tagging),
Video, Widgets y Wiki.
Tipos de Herramientas Web 2.0 para Aprendizaje Colaborativo:
a) Blogging
b) Bookmarks
c) Community d) Collaborative
e) Education f) Management
g) Project Management h) RSS Feeds
i) Tagging j) Wiki
Los siguientes son criterios para implantar programas:
Suporte para comunicación y colaboración entre los participantes
Nivel de soporte para evaluar el nivel de participación de grupos e individuos
Número de actividades Web 2.0 y herramientas que se soportan
Que sea de código libre con licencia GPL y que sea libre de usar y modificar
Calidad del API Web 2.0, incluyendo soporte
Revisión Comparativa de Herramientas Web 2.0 Mindmeister : permite a los usuarios convertir texto en mapas mentales. Permite la colaboración en línea de varios usuarios en la elaboración colaborativa de mapas mentales.
10
MediaWiki: es una herramienta gratuita liberada bajo la licencia GNU General License (GPL). Fue originalmente escrita para la Wikipedia y ahora se encuentra disponible para uso general. Fue diseñada para correr en granjas de servidores grandes dándole soporte a sitios que pueden llegar a tener millones de hits cada día.
PeopleAggregator: es una
aplicación Web 2.0 que sirve para
crear redes sociales personalizadas.
Fue desarrollada por Broadband
Mechanics (BBM), un desarrollador
importante de redes sociales de
etiqueta blanca y plataformas para
blogs.
Características de Google Docs - Crear documentos básicos
- Subir archivos en una variedad de formatos incluyendo DOC, XLS, ODT, ODS, RTF, CSV, PPT, etc.
- Los editores tienen las herramientas más comunes de las aplicaciones de escritorio
- Edición colaborativa.
- Compartición instantánea.
- Importar/Exportar en diversos formatos, incluyendo pdf .
- Administración de documentos
- Publicación en línea y control de accesos.
- Registros de cambios y control de versiones. En general Elgg ofrece:
- Administración de usuarios, objetos, archivos y el sitio en sí
- Graficación social que mapea las relaciones entre usuarios, objetos y sitios Web)
- Capacidad Multisitio para una misma instalación. - Soporte a la internacionalización extensible
- Búsqueda en todos los contenidos y usuarios en todo el sistema, basándose en etiquetas
- Control de acceso fino
- Múltiples vistas, permitiendo interfaces con aplicaciones móviles y widgets embebidos, y navegadores Web
- APIs para manejo de eventos, extensiones y widgets Elgg, como otras aplicaciones proporciona documentación completa relacionada con el uso, el desarrollo y las contribuciones a Elgg. MODx: es sistema de manejo de contenidos y plataforma de aplicaciones de código libre desarrollado en PHP y Ajax. Es fácil de usar y tiene una arquitectura flexible y modular. Proporciona optimización de contenidos y de búsqueda de los mismos basándose en Meta Etiquetas y palabras clave para hacer que las búsquedas sean más amigables. MODx es una aplicación Web 2.0 que puede realizar Blogging. Entre otros.
Para mas información visite: http://prezi.com/1f7ecb7rannz/present/?auth_key=bcel0lh&follow=lntwrwualu76
11
Bibliografía: http://prezi.com/1f7ecb7rannz/present/?auth_key=bcel0lh&follow=lntwrwualu76 Expositora: Jennifer Aponte.
Duración exposición: 15 minutos.
Fecha Exposición: 16 de agosto de 2012.
ABSTRACT
In general, current applications of Web 2.0 try to be more dynamic and are
characterized as “social communities” where emphasis is placed on contribution
and participation from users. In contrast to traditional web, Web 2.0 offers more
than basic interaction and participation from users. Besides, it offers informatics
programs on line, which make easy to get contents through implementation of
platforms but as long as specialized tools are to be obtained.
5. SISTEMAS EXPERTOS.
Introducción Se creía que algunos problemas como la demostración de teoremas, el reconocimiento de la voz y el de patrones, ciertos juegos (como el ajedrez o las damas), y sistemas altamente complejos de tipo determinista o estocástico, debían ser resueltos por personas.
12
Sin embargo, el trabajo realizado en las tres últimas décadas por investigadores procedentes de varios campos, muestra que muchos de estos problemas pueden ser formulados y resueltos por máquinas. El amplio campo que se conoce como INTELIGENCIA ARTIFICIAL (IA): La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseño de sistemas de computación inteligentes.
Barr y E. A. Feigenbaum, (1981)
¿Que es un Sistema Experto? Hay varias definiciones:
Los sistemas expertos son máquinas que piensan y razonan como un experto lo haría en una cierta especialidad o campo. Ejemplo: sistema experto en diagnostico medico.
Stevens (1984).
Un sistema experto puede definirse como un sistema informático (hardware y software) que simula a los expertos humanos en un área de especialización dada.
Castillo y Alvarez (1991) y Durkin (1994)
Ejemplos Ilustrativos:
a. Transacciones bancarias.
b. Control de tráfico.
13
c. Diagnóstico medico: Utilizado para responder preguntas de carácter medico.
¿Por qué los Sistemas Expertos?
Hay varias razones para utilizar sistemas expertos. Las más importantes son:
A. Con la ayuda de un sistema experto, personal con poca experiencia puede resolver problemas que requieren un conocimiento de experto.
B. El conocimiento de varios expertos humanos puede combinarse, lo que da lugar a sistemas expertos más fiables, ya que se obtiene un sistema experto que combina la sabiduría colectiva de varios expertos humanos en lugar de la de uno solo.
C. Los sistemas expertos pueden responder a preguntas y resolver problemas
mucho más rápidamente que un experto humano. Por ello, los sistemas son muy valiosos en casos en los que el tiempo de respuesta es criticó.
D. En algunos casos, la complejidad del problema impide al experto humano
resolverlo. En otros casos la solución de los expertos humanos no es fiable. Debido a la capacidad de los ordenadores de procesar un elevadísimo número de operaciones complejas de forma rápida y aproximada, los sistemas expertos suministran respuestas rápidas y fiables en situaciones en las que los expertos humanos no pueden.
E. Los sistemas expertos pueden ser utilizados para realizar operaciones
monótonas, aburridas e inconfortables para los humanos.
14
Tipos de Sistemas Expertos Los problemas con los que pueden tratar los sistemas expertos pueden clasificarse en dos tipos:
a. Problemas esencialmente deterministas :( También llamados sistemas basados en reglas)= Utilización del razonamiento lógico.
b. Problemas esencialmente estocásticos:(Al azar)= situaciones aleatorias
o de incertidumbre.
Arquitectura de un Sistema Experto
15
Desarrollo de un Sistema Experto.
Weiss y Kulikowski (1984) sugieren las etapas siguientes para el diseño e implementación de un sistema experto.
“De Todo esto depende la calidad y el buen funcionamiento del sistema experto resultante.”
16
Para mas información visite:
http://prezi.com/ywotef2d7luq/present/?auth_key=x1uzcmc&follow=uke0lpfp0p7o Bibliografía: http://prezi.com/ywotef2d7luq/present/?auth_key=x1uzcmc&follow=uke0lpfp0p7o Expositora: Kelly Maribeth Avendaño Gelviz. Duración exposición: 18 minutos.
Fecha Exposición: 16 de agosto de 2012.
ABSTRACT
We understood that expert systems require of several concepts acquired from
Computation Science, Mathematical Logic and Statistics and Probability among
others. So, it is required participation of several specialists in a particular area.
Likewise, to get a true Expert System, traditional functions related to manage of a
great lot of data must be performed but also manipulation of such data so that
result is intelligible and is meaningful to answer even no specified questions
completely. To several statistics, these expert systems have not reached in
developing countries yet; due to get these systems require a lot of money.
6. SEGURIDAD INFORMÁTICA
OBJETIVOS
Tenemos tres principalmente:
1. Mantener la información a salvo de las diferentes amenazas que se puedan
presentar en un medio informático atreves de la programación.
2. Brindar conocimiento de los diferentes métodos de seguridad.
3. Generar claves para mejorar la seguridad.
17
MÉTODOS DE SEGURIDAD
Los antivirus: estos son accesibles y útiles en diferentes casos pero nunca
son 100% seguros.
Los contrafuegos: son usados principalmente en redes privadas y según la
programación que se le dé pueden permitir o no el acceso de diferentes
fuentes de información
Las VNP con sistema cifrado: básicamente son extensión de una red
privada que usa protocolos para mejorar la seguridad del medio en las que
estas se proyectan.
CAMPOS DE ACCIÓN
Financiero: ” pionero en el manejo de la seguridad informática”
Comunicación: “especialmente se enfocan en romper paradigmas”
Empresarial: Se encarga de crear software de seguridad para restringir
información importante.
Científico: para almacenar datos de información confidencial se requiere de una
seguridad informática de carácter privado.
TIPOS DE AMENAZA A LA SEGURIDAD INFORMÁTICA
Virus
1 Gusanos: se multiplican fácilmente.
2 Troyanos: se especializan en el robo de datos.
3 Backdoors: toman el control del ordenador infectado y manejan su
información.
4 Retrovirus: especializados en deñar el antivirus.
HACKER
Es una persona que pertenece a una de estas comunidades o subculturas
distintas pero no completamente independientes.
SUB CULTURAS
WHITE HAT: son los que mejoran la seguridad principalmente en las
empresas.
BLACK HAT: Son los que intentan romper la seguridad.
GREY HAT: Son lo que asesoran a los dos grupos anteriormente
mencionados.
18
Para mas información visite:
http://prezi.com/2x_-mf9tujj7/seguridad-informatica/
Bibliografía: http://prezi.com/2x_-mf9tujj7/seguridad-informatica/ Expositor: Leonar Alejandro Castro Castro.
Duración exposición: 11 minutos.
Fecha Exposición: 16 de agosto de 2012.
ABSTRACT
Informatics security is essential in any action field that requires working with
software designed for a proposal. It is very important for users knowing about
different types of virus and how they affect the system because they are in daily
contact with the systems. On the other hand, hackers are people with great
technological skills who create or destroy safety barriers in accordance to their
goals. All of this makes part of computer security.
7. TELEMEDICINA
Es la herramienta que permite
adquirir tanto diagnóstico y
tratamiento, como también la
educación médica. Es un recurso
tecnológico que posibilita la
optimización de los servicios de
atención en salud o información.
Aplicaciones:
-Tele consulta: se utiliza para
diagnósticos seguros y es realizada
entre un medico general y un
especialista.
-Tele presencia: Asistencia de un
especialista a distancia con un
paciente esto se hace a través de
videoconferencia.
19
-Trabajo cooperativo:
se realiza cuando se
necesita dar un
diagnostico
compartido, es decir,
varios especialistas de
un mismo nivel
científico.
-Tele monitorización:
permite al personal
sanitario encargado
del cuidado de
pacientes crónicos
realizar el
seguimiento del
estado de salud.
-Teleducación: se
utiliza para adquirir
conocimientos o
experiencias
medicas y adquirir
sabiduría o
experiencia a
través de ellas.
Para mas información visite:
http://prezi.com/gfhqitxwamd7/present/?auth_key=1u7qbsy&follow=fmqbkbnnmbhj
Bibliografia:
http://prezi.com/gfhqitxwamd7/present/?auth_key=1u7qbsy&follow=fmqbkbnnmbhj
Expositora: María Camila Buitrago.
Duración exposición: 13 min.
Fecha exposición: 23 de agosto de 2012.
ABSTRACT
By lecture, Telemedicine is an instrument that is used not only to provide medical
services but also to help to Health Sciences students at universities, allowing them
to save files (x-ray, ultrasounds etc.). Besides, this expert system has the ability to
give clear and precise diagnostics what leads to greater reliability treatment.
20
8. PROGRAMACIÓN DE
VÍDEO JUEGOS.
Para programar un video juego se
requieren herramientas tales como:
gráficos, sonidos, información de
datos y principalmente algoritmos.
La programación de videojuegos es un proceso que pertenece a la creación de un videojuego. Este proceso es efectuado por un programador de videojuego gracias a la programación informática. Casi siempre, la programación de un videojuego se resume en repetir a trechos las siguientes acciones:
1. procesar las interacciones de un agente con su entorno según las entradas del usuario.
2. procesar los fenómenos indirectamente controlados por el usuario.
3. crear una imagen a partir de esas informaciones y mostrarlo en la pantalla (igual para el sonido).
El agente suele ser un personaje (el
jugador ganador) quien manda
entradas al programa mediante un
periférico que puede ser: un
teclado,joystick y controles remotos
La gestión de las interacciones
consiste en prever las acciones
posibles sobre el entorno, detectar si
han estado provocadas y procesar
respuestas.
La creación de un imagen en dos dimensiones suele empezar por el dibujo de los objetos les más lejos, y tal acercándose del jugador. Por ejemplo
Creación del fondo (el background) ayudándose de unos mosaicos (los tiles) propicios a los sistemas de desplazamiento (el scrolling) o simplemente de un fondo de pantalla (como para los antiguos juegos de aventura).
Añadidura de imágenes (sprites) usando un sistema de recorte que permite dibujar formas complejas mientras que es imprescindible que las imágenes sean rectangulares en la memoria.
Para mas información visite:
http://prezi.com/c6qh7-rm-_dm/edit/?auth_key=i0k8c4h&follow=uohnutjdpczl
21
Bibliografía: http://prezi.com/c6qh7-rm-_dm/edit/?auth_key=i0k8c4h&follow=uohnutjdpczl Expositor: Yeison Oswaldo Boada Alvarez
Duración exposición: 5 minutos.
Fecha Exposición: 24 de agosto de 2012.
ABSTRACT
Video-games programming is an advance into entertainment field. Programming a
video game requires algorithms and concrete operations allowing to the player
getting full control on characters or elements finding in the environment through
using of Computer Peripherals.
9. PROGRAMACIÓN ORIENTADA A OBJETOS.
La programación orientada a objetos es una forma de programar que trata de encontrar una solución a estos problemas. Introduce nuevos conceptos, que superan y amplían conceptos antiguos ya conocidos. Entre ellos destacan los siguientes:
Clase: definiciones de las propiedades y comportamiento de un tipo de objeto concreto. La instanciación es la lectura de estas definiciones y la creación de un objeto a partir de ellas.
Herencia: (por ejemplo, herencia de la clase C a la clase D) Objeto: entidad provista de un conjunto de propiedades o atributos (datos)
y de comportamiento o funcionalidad (métodos) los mismos que consecuentemente reaccionan a eventos.
Método: Algoritmo asociado a un objeto (o a una clase de objetos), cuya ejecución se desencadena tras la recepción de un "mensaje".
Evento: Es un suceso en el sistema (tal como una interacción del usuario con la máquina, o un mensaje enviado por un objeto).
Mensaje: una comunicación dirigida a un objeto, que le ordena que ejecute uno de sus métodos con ciertos parámetros asociados al evento que lo generó.
22
Propiedad o atributo: contenedor de un tipo de datos asociados a un objeto (o a una clase de objetos), que hace los datos visibles desde fuera del objeto y esto se define como sus características predeterminadas, y cuyo valor puede ser alterado por la ejecución de algún método.
Estado interno: es una variable que se declara privada, que puede ser únicamente accedida y alterada por un método del objeto.
Componentes de un objeto: atributos, identidad, relaciones y métodos. Identificación de un objeto: un objeto se representa por medio de una
tabla o entidad que esté compuesta por sus atributos y funciones correspondientes.
En comparación con un lenguaje imperativo, una "variable", no es más que un contenedor interno del atributo del objeto o de un estado interno, así como la "función" es un procedimiento interno del método del objeto.
Existe un acuerdo acerca de qué características contempla la "orientación a objetos", las características siguientes son las más importantes:
Abstracción: denota las características esenciales de un objeto, donde se capturan sus comportamientos. Cada objeto en el sistema sirve como modelo de un "agente" abstracto que puede realizar trabajo, informar y cambiar su estado, y "comunicarse" con otros objetos en el sistema sin revelar cómo se implementan estas características. El proceso de abstracción permite seleccionar las características relevantes dentro de un conjunto e
identificar comportamientos comunes para definir nuevos tipos de entidades en el mundo real.
Encapsulamiento:
Significa reunir a todos los elementos que
pueden considerarse pertenecientes a una misma entidad, al mismo nivel de abstracción. Esto permite aumentar la cohesión de los componentes del sistema. Algunos autores confunden este concepto con el principio de ocultación, principalmente porque se suelen emplear conjuntamente.
Modularidad: Se denomina Modularidad a la propiedad que permite subdividir una aplicación en partes más pequeñas (llamadas módulos),
23
cada una de las cuales debe ser tan independiente como sea posible de la aplicación en sí y de las restantes partes. Estos módulos se pueden compilar por separado, pero tienen conexiones con otros módulos. Al igual que la encapsulación, los lenguajes soportan la Modularidad de diversas formas.
Principio de ocultación: Cada objeto está aislado del exterior, es un módulo natural, y cada tipo de objeto expone una interfaz a otros objetos que específica cómo pueden interactuar con los objetos de la clase. La aplicación entera se reduce a un agregado o rompecabezas de objetos.
Polimorfismo: comportamientos diferentes, asociados a objetos distintos, pueden compartir el mismo
nombre, al llamarlos por ese nombre se utilizará el comportamiento correspondiente al objeto que se esté usando. Cuando esto ocurre en "tiempo de ejecución", esta última característica se llama asignación tardía o asignación dinámica.
Herencia: las clases no están aisladas, sino que se relacionan entre sí, formando una jerarquía de clasificación. Los objetos heredan las propiedades y el comportamiento de todas las clases a las que pertenecen. La herencia organiza y facilita el polimorfismo y el encapsulamiento permitiendo a los objetos ser definidos y creados como tipos especializados de objetos preexistentes.
Para mas información visite: http://prezi.com/y-w2hwdfzgjw/edit/?auth_key=rrrevsz&follow=nh5cxngkjl6s Bibliografía: http://prezi.com/y-w2hwdfzgjw/edit/?auth_key=rrrevsz&follow=nh5cxngkjl6s Expositor: Diego Fernando Cante.
Duración exposición: 7 minutos.
Fecha Exposición: 24 de agosto de 2012.
24
ABSTRACT
We can define programming aimed to objects where data and procedures are
separated and unrelated since only input data processing is sought in order to get
output data. Here, it is important the Heritage Organization to make easy
polymorphism and encapsulation what allows the objects to be created and defined
as special type ones.
10. RED DE COMPUTADORES.
Una red de computadoras, también llamada red de ordenadores, red de comunicaciones de datos o red informática, es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricos, ondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecer servicios.
Como en todo proceso de comunicación se requiere de un emisor, un mensaje, un medio y un receptor.
Clasificación de las redes
Una red puede recibir distintos calificativos de clasificación en base a distintas taxonomías: alcance, tipo de conexión, tecnología, etc.
Por alcance
Red de área personal, o PAN (Personal Area Network) en inglés, es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora cerca de una persona.
Red inalámbrica de área personal, o WPAN (Wireless Personal Area Network), es una red de computadoras inalámbrica para la comunicación entre distintos dispositivos (tanto computadoras, puntos de acceso a internet, teléfonos celulares, PDA, dispositivos de audio, impresoras) cercanos al punto de acceso.
25
Red de área local, o LAN (Local Area Network), es una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de localización. No utilizan medios o redes de interconexión públicos.
Red de área local inalámbrica, o WLAN (Wireless Local Area Network), es un sistema de comunicación de datos inalámbrico flexible, muy utilizado como alternativa a las redes de área local cableadas o como extensión de estas.
Red de área de campus, o CAN (Campus Area Network), es una red de computadoras de alta velocidad que conecta redes de área local a través de un área geográfica limitada, como un campus universitario, una base militar, hospital, etc. Tampoco utiliza medios públicos para la interconexión.
Red de área metropolitana (metropolitan area network o MAN, en inglés) es una red de alta velocidad (banda ancha) que da cobertura en un área geográfica más extensa que un campus, pero aún así limitado. Por ejemplo, un red que interconecte los edificios públicos de un municipio dentro de la localidad por medio de fibra óptica.
Redes de área amplia, o WAN (Wide Area Network), son redes informáticas que se extienden sobre un área geográfica extensa utilizando medios como: satélites, cables interoceánicos, Internet, fibras ópticas públicas, etc.
Red de área de almacenamiento, en inglés SAN (Storage Area Network), es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte, permitiendo el tránsito de datos sin afectar a las redes por las que acceden los usuarios.
Red de área local virtual, o VLAN (Virtual LAN), es un grupo de computadoras con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras.
26
Por tipo de conexión
Medios guiados
El cable coaxial se utiliza para transportar señales electromagnéticas de alta frecuencia que posee dos conductores concéntricos, uno central, llamado vivo y uno exterior denominado malla o blindaje, que sirve como referencia de tierra y retorno de las corrientes; los cuales están separados por un material dieléctrico que, en realidad, transporta la señal de información.
El cable de par trenzado es una forma de conexión en la que dos conductores eléctricos aislados son entrelazados para tener menores interferencias y aumentar la potencia y disminuir la diafonía de los cables adyacentes. Dependiendo de la red se pueden utilizar, uno, dos, cuatro o más pares.
La fibra óptica es un medio de transmisión empleado habitualmente en redes de datos; un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir.
Medios no guiados
Red por radio es aquella que emplea la radiofrecuencia como medio de unión de las diversas estaciones de la red.
Red por infrarrojos, permiten la comunicación entre dos nodos, usando una serie de leds infrarrojos para ello. Se trata de emisores/receptores de ondas infrarrojas entre ambos dispositivos, cada dispositivo necesita al otro para realizar la comunicación por ello es escasa su utilización a gran escala. No disponen de gran alcacen y
necesitan de visibilidad entre los dispositivos.
Red por microondas, es un tipo de red inalámbrica que utiliza microondas como medio de transmisión. Los protocolos más frecuentes son: el IEEE 802.11b y transmite a 2,4 GHz, alcanzando velocidades de 11 Mbps (Megabits por segundo); el rango de 5,4 a 5,7 GHz para el protocolo IEEE 802.11a; el IEEE 802.11n que permite velocidades de hasta 600 Mbps; etc.
27
Por topología física
La red en bus se caracteriza por
tener un único canal de comunicaciones
(denominado bus, troncal o backbone) al
cual se conectan los diferentes
dispositivos.
En una red en anillo cada estación está conectada a la siguiente y la última está conectada a la primera.
En una red en estrella las estaciones están conectadas directamente a un punto central y todas las comunicaciones se han de hacer necesariamente a través de éste.
En una red en malla cada nodo está conectado a todos los otros.
En una red en árbol los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central.
En una red mixta se da cualquier combinación de las anteriores.
Por grado de autentificación
'Red privada: se definiría como una red que puede usarla solo algunas personas y que están configuradas con clave de acceso personal.
Red de acceso público: se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal.
28
Por grado de difusión:
Una intranet es una red de ordenadores privados que utiliza tecnología Internet para compartir dentro de una organización parte de sus sistemas de información y sistemas operacionales.
Por servicio o función
Una red comercial proporciona soporte e información para una empresa u organización con ánimo de lucro.
Una red educativa proporciona soporte e información para una organización educativa dentro del ámbito del aprendizaje.
Una red para el proceso de datos proporciona una interfaz para intercomunicar equipos que vayan a realizar una función de cómputo conjunta.
Para mas información visite: http://prezi.com/ugie-wcdzl9n/present/?auth_key=95c9ghb&follow=jnsflte776gx Bibliografía: http://prezi.com/ugie-wcdzl9n/present/?auth_key=95c9ghb&follow=jnsflte776gx Expositor: Diego Alexander Fiaga.
Duración exposición: 11 minutos.
Fecha Exposición: 24 de agosto de 2012.
ABSTRACT
The main goal for creating a computer network is to share information and
resources at distance; ensure reliability and availability of the information; increase
the speed of data transmission and reduce total cost of these actions.
29
11. ANIMACIÓN EN 3D.
El término gráficos 3D por computadora (o por ordenador) se refiere a trabajos de arte gráfico que son creados con ayuda de computadoras y programas especiales. En general, el término puede referirse también al proceso de crear dichos gráficos, o el campo de estudio de técnicas y tecnología relacionadas con los gráficos tridimensionales.
Un gráfico 3D difiere de uno bidimensional principalmente por la forma en que ha sido generado. Este tipo de gráficos se originan mediante un proceso de cálculos matemáticos sobre entidades geométricas tridimensionales producidas en un ordenador, y cuyo propósito es conseguir una proyección visual en dos dimensiones para ser mostrada en una pantalla o impresa en papel.
Creación de gráficos 3D
Modelado
La etapa de modelado consiste en ir dando forma a objetos individuales que luego serán usados en la escena. Existen diversos tipos de geometría para modelador con NURBS y modelado poligonal o subdivisión de superficies.
Iluminación
Creación de luces de diversos tipos puntuales, direccionales en área o volumen, con distinto color o propiedades. Esto es la clave de una animación.
30
Animación
Los objetos se pueden animar en cuanto a:
Transformaciones básicas en los tres ejes (XYZ), rotación, escala y traslación.
Forma: o Mediante esqueletos: a los objetos se les puede asignar un
esqueleto, una estructura central con la capacidad de afectar la forma y movimientos de ese objeto. Esto ayuda al proceso de animación, en el cual el movimiento del esqueleto automáticamente afectará las porciones correspondientes del modelo. Véase también animación por cinemática directa (forward kinematic animation) y animación por cinemática inversa (inverse kinematic animation).
o Mediante deformadores: ya sean cajas de deformación (lattices) o cualquier deformador que produzca, por ejemplo, una deformación sinusoidal.
o Dinámicas: para simulaciones de ropa, pelo, dinámicas rígidas de objeto.
La animación es muy importante dentro de los gráficos porque en estas animaciones se intenta realizar el mero realismo, por lo cual se trabajan muchas horas.
Renderizado
Proceso final de generar la imagen 2D o animación a partir de la escena creada. Esto puede ser comparado a tomar una foto o en el caso de la animación, a filmar una escena de la vida real.
API de gráficos tridimensionales
Los gráficos 3D se han convertido en algo muy popular, particularmente en videojuegos, al punto que se han creado interfaces de programación de aplicaciones (API) especializadas para facilitar los procesos en todas las etapas de la generación de gráficos por computadora. Estas interfaces han demostrado ser vitales para los desarrolladores de hardware para gráficos por computadora, ya que proveen un camino al programador para acceder al hardware de manera abstracta, aprovechando las ventajas de tal o cual placa de video.
31
Las siguientes interfaces para gráficos por computadora son particularmente populares:
OpenGL (Open Graphics Library) es una especificación estándar que define una API multilenguaje y multiplataforma para escribir aplicaciones que produzcan gráficos 2D y 3D. La interfaz consiste en más de 250 funciones diferentes que pueden usarse para dibujar escenas tridimensionales complejas a partir de primitivas geométricas simples, tales como puntos, líneas y triángulos.
Direct3D es parte de DirectX (conjunto de bibliotecas para multimedia), propiedad de Microsoft. Consiste en una API para la programación de gráficos 3D. Está disponible tanto en los sistemas Windows de 32 y 64 bits, como para sus consolas Xbox y Xbox 360.
El nombre RenderMan puede crear confusión, en cualquier caso es propiedad de Pixar.
Para mas información visite: http://prezi.com/ycbk3rgadqgj/present/?auth_key=9l9spro&follow=nk9mdv7r-2ld
Bibliografía: http://prezi.com/ycbk3rgadqgj/present/?auth_key=9l9spro&follow=nk9mdv7r-2ld
Expositor: Jonathan Alejandro Estupiñan Sanchez.
Duración exposición: 17 minutos.
Fecha Exposición: 24 de agosto de 2012.
ABSTRACT
3D animation is one of the most used techniques and with more booms in TV and
film industry. In 3D animation, elements, characters and settings are built or
modeled in three dimensions or axes. We consider that this animation is very
important and didactic because it allows joining the virtual reality, the actual reality
and the augmented reality to create 3D animation that until recently it was believed
unattainable.
32
12. SISTEMAS OPERATIVOS.
Un sistema operativo (SO) es un programa o conjunto
de programas que en un sistema informático gestiona
los recursos de hardware y provee servicios a los
programas de aplicación, ejecutándose en modo
privilegiado respecto de los restantes.
Uno de los propósitos del sistema operativo que
gestiona el núcleo intermediario consiste en gestionar
los recursos de localización y protección de acceso del
hardware, hecho que alivia a los programadores de
aplicaciones de tener que tratar con estos detalles. La
mayoría de aparatos electrónicos que utilizan
microprocesadores para funcionar, llevan incorporado
un sistema operativo (teléfonos móviles, reproductores de DVD, computadoras,
radios, enrutadores, etc
Los sistemas operativos más conocidos son los siguientes:
1) DOS: El famoso DOS, que quiere decir Disk Operating System (sistema operativo de disco), es más conocido por los nombres de PC-DOS y MS-DOS. MS-DOS fue hecho por la compañía de software Microsoft y es en esencia el mismo SO que el PC-DOS.
La razón de su continua popularidad se debe al aplastante volumen de software disponible y a la base instalada de computadoras con procesador Intel.
2) Windows 3.1: Microsoft tomo una decisión, hacer un sistema operativo que tuviera una interfaz gráfica amigable para el usuario, y como resultado obtuvo Windows. Este sistema muestra íconos en la pantalla
que representan diferentes archivos o programas, a los cuales se puede accesar al darles doble click con el puntero del mouse. Todas las aplicaciones elaboradas para Windows se parecen, por lo que es muy fácil aprender a usar nuevo software una vez aprendido las bases.
3) Windows 95: En 1995, Microsoft introdujo una nueva y mejorada versión del Windows 3.1. Las mejoras de este SO incluyen soporte multitareas y arquitectura de 32 bits, permitiendo así correr mejores aplicaciónes para mejorar la eficacia del trabajo.
4) Windows NT: Esta versión de Windows se especializa en las redes
33
y servidores. Con este SO se puede interactuar de forma eficaz entre dos o más computadoras.
5) OS/2: Este SO fue hecho por IBM. Tiene soporte de 32 bits y su interfaz es muy buena.
6) Mac OS: Las computadoras Macintosh no serían tan populares como lo son si no tuvieran el Mac OS como sistema operativo de planta. Este sistema operativo es tan amigable para el usuario que
cualquier persona puede aprender a usarlo
en muy
poco tiempo. Por
otro lado,
es muy bueno
para organi
zar archivos y
usarlos de manera eficaz. Este fue creado por Apple Computer, Inc.
7) UNIX: El sistema operativo UNIX fue creado por los laboratorios Bell de AT&T en 1969 y es ahora usado como una de las bases para la supercarretera de la información.
Clasificación de los Sistemas Operativos
Los sistemas operativos pueden ser clasificados de la siguiente forma:
Multiusuario: Permite que dos o más usuarios utilicen sus programas al mismo tiempo. Algunos sistemas operativos permiten a centenares o millares de usuarios al mismo tiempo.
Multiprocesador: soporta el abrir un mismo programa en más de una CPU. Multitarea: Permite que varios programas se ejecuten al mismo tiempo. Multitramo: Permite que diversas partes de un solo programa funcionen al
mismo tiempo. Tiempo Real: Responde a las entradas inmediatamente. Los sistemas
operativos como DOS y UNIX, no funcionan en tiempo real.
Cómo funciona un Sistema Operativo
Los sistemas operativos proporcionan una plataforma de software encima de la cual otros programas, llamados aplicaciones, puedan funcionar. Las aplicaciones se programan para que funcionen encima de un sistema operativo particular, por tanto, la elección del sistema operativo determina en gran medida las aplicaciones que puedes utilizar.
34
Los sistemas operativos más utilizados en los PC son DOS, OS/2, y Windows, pero hay otros que también se utilizan, como por ejemplo Linux.
Cómo se utiliza un Sistema Operativo
Un usuario normalmente interactúa con el sistema operativo a través de un sistema de comandos, por ejemplo, el sistema operativo DOS contiene comandos como copiar y pegar para copiar y pegar archivos respectivamente.
Los comandos son aceptados y ejecutados por una parte del sistema operativo llamada procesador de comandos o intérprete de la línea de comandos. Las interfaces gráficas permiten que utilices los comandos señalando y pinchando en objetos que aparecen en la pantalla.
Para mas información visite: http://prezi.com/1q02xhmvsooy/sistemas-operativos/ Bibliografía: http://prezi.com/1q02xhmvsooy/sistemas-operativos/ Expositor: Enmanuel German Alvarez Ortiz.
Duración exposición: 24minutos.
Fecha Exposición: 24 de agosto de 2012.
ABSTRACT
Operating system is the most important program or software of a computer since it
allows that other programs work. It is necessary to understand that every
computer needs a determined operating system in charge of making basic tasks
such as no losing information, holding connected the peripherals and other devices
interconnected. We can say that, computer programs would not exist without an
operating system for user service.
35
13. INTELIGENCIA ARTIFICIAL (IA).
La Inteligencia Artificial es la parte de la Ciencia que se ocupa del diseño de sistemas de computación inteligentes, es decir, sistemas que exhiben las características que asociamos a la inteligencia en el comportamiento humano que se refiere a la comprensión del lenguaje, el aprendizaje, el razonamiento, la resolución de problemas, etc.
Barr y E. A. Feigenbaum, (1981) John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes." Hoy en día, el campo de la IA engloba varias subáreas tales como:
1) Los sistemas expertos. 2) La demostración automática de teoremas. 3) El juego automático. 4) El reconocimiento de la voz y de patrones, 5) El procesamiento del lenguaje natural. 6) La visión artificial. 7) La robótica, 8) Las redes neuronales.
Aunque los sistemas expertos constituyen una de las áreas de investigación en el campo de la IA, la mayor parte de las restantes áreas, si no todas, disponen de una componente de sistemas expertos formando parte de ellas.
Antecedentes Históricos:
En 1936 Alan Turing diseña formalmente una Máquina universal que demuestra la viabilidad de un dispositivo físico para implementar cualquier cómputo formalmente definido.
En 1943 Warren McCulloch y Walter Pitts presentaron su modelo de neuronas artificiales, el cual se considera el primer trabajo del campo, aun cuando todavía no existía el término. Los primeros avances importantes comenzaron a principios de los años 1950 con el trabajo de Alan Turing, a partir de lo cual la ciencia ha pasado por diversas situaciones.
En 1955 Herbert Simon, Allen Newell y J.C. Shaw, desarrollan el primer lenguaje de programación orientado a la resolución
36
de problemas, el IPL-11. Un año más tarde desarrollan el LogicTheorist, el cual era capaz de demostrar teoremas matemáticos.
En 1956 fue inventado el término inteligencia artificial por John McCarthy, Marvin Minsky y Claude Shannon en la Conferencia de Dartmouth, un congreso en el que se hicieron previsiones triunfalistas a diez años que jamás se cumplieron, lo que provocó el abandono casi total de las investigaciones durante quince años.
Categorías de la inteligencia Artificial:
Sistemas que piensan como humanos.- Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
Sistemas que actúan como humanos.- Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, por el momento, los humanos hacen mejor.
Sistemas que piensan racionalmente.- Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
Sistemas que actúan racionalmente (idealmente). Tratan de emular en forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.
Para mas información visite:
http://prezi.com/zh00n8hz_pqi/present/?auth_key=ud958sy&follow=svkwv_wbwek
p
Bibliografía:
http://prezi.com/zh00n8hz_pqi/present/?auth_key=ud958sy&follow=svkwv_wbwek
p
Expositora: Lina Maritza Castro Forero.
Duración exposición: 6 minutos.
Fecha Exposición: 24 de agosto de 2012.
37
ABSTRACT
It has known and understood the components considered in artificial intelligence;
planning a system comes to possess features and abilities previously considered
own of human being (no transferable). Besides, “artificial neurons” term is in
evolution given that, more skills are designed to be implanted in these systems
every day.
14. AUDIO DIGITAL
El audio digital es la codificación
digital de una señal eléctrica que
representa una onda sonora.
Consiste en una secuencia de valores
enteros y se obtienen de dos
procesos: el muestreo y la
cuantificación digital de la señal
eléctrica.
El muestreo: El muestreo
consiste en fijar la amplitud de
la señal eléctrica a intervalos
regulares de tiempo (tasa de
muestreo).
La cuantificación digital: La
cuantificación consiste en
convertir el nivel de las
muestra fijadas en el proceso
de muestreo, normalmente, un
nivel de tensión, en un valor
entero de rango finito y
predeterminado.
Tasa de muestreo
Es el número de muestras con las
que se realiza el proceso de
muestreo en una unidad de
tiempo y posteriormente
determina exclusivamente la
frecuencia máxima de los
componentes armónicos que
formar parte del material a
digitalizar.
Historia del Audio Digital.
El primer audio digital aparece a
finales de la década de los 50, el
primer hombre en producir
sonidos con un ordenador simple
fue MAX MATHEWS y luego de
los 80 aparecieron los primeros
sintetizadores digitales.
38
.En 1979 compañías como Philips y Sony desarrollan el primer Compac Disc,
abriendo paso a la creación del formato digital que revoluciono el concepto de
audio digital al desarrollado Mp3 en el año de 1995 y considera como formato
digital por excelencia.
¿Que es la edición digital de
audio?
Es el proceso desarrollado por un
software en el cual se altera la
composición original de un archivo de
audio, ya sea sobre poniendo o
ecualizando dicho archivo.
Algunos programas recomendados para
edición de audio son:
o Sony Acid Pro
o Adobe Audio
o Sonar 6
o Pro Tools.
Para mas información visite:
http://prezi.com/-ss4pckin_n0/edit/?auth_key=ocq6dr9&follow=t4yf-tqyl3xd#8
Bibliografía:
http://prezi.com/-ss4pckin_n0/edit/?auth_key=ocq6dr9&follow=t4yf-tqyl3xd#8
Expositor: Juan José Contreras Otálora.
Duración exposición: 5 minutos.
Fecha Exposición: 24 de agosto de 2012.
ABSTRACT
Thanks to new technologies raised from the fifties, we achieve to know the edition
of the audio. It was one of the greatest advances of music by adapting the first
digital keyboard that was capable to reproduce the prerecorded sounds.
Undoubtedly, it was a great advance since important musical companies made this
tool available to us in each of the computers.