jueves, 25 de octubre de 2012

STEVE JOBS


Steve Jobs

(Los Altos, California, 1955 - Los Ángeles, 2011) Informático y empresario estadounidense. Padre del primer ordenador personal (el Apple I) y fundador de Apple Computer, probablemente la empresa más innovadora del sector, este mago de la informática fue uno de los más influyentes de la vertiginosa escalada tecnológica en que aún vive el mundo actual, contribuyendo decisivamente a la popularización de la informática. Sus ideas visionarias en el campo de los ordenadores personales, la música digital o la telefonía móvil revolucionaron los mercados y los hábitos de millones de personas durante más de cuatro décadas.
Steve Jobs

Al terminar el bachiller en el instituto Homestead de Mountain View, Steve Jobs ingresó en la Reed College en Portland, Oregón, pero abandonó los estudios universitarios un semestre más tarde. En esa época coqueteó con las drogas y se interesó por la filosofía y la contracultura, llegando a viajar a la India en busca de iluminación espiritual.
Tras unas prácticas en la empresa Hewlett-Packard en Palo Alto, en 1974 Jobs fue contratado por Atari Inc. como diseñador de videojuegos. Por entonces se unió al que sería su primer socio, el ingeniero Stephen Wozniak, en cuyo garaje crearon el Apple I, considerado el primer ordenador personal de la historia. En 1976, con el dinero obtenido en la venta de su furgoneta Volkswagen, fundaron la empresa Apple Computer, con sede en el garaje de la familia Jobs. Steve Jobs eligió el nombre Apple como un recuerdo de los tiempos en que trabajaba en la recolección de su fruta favorita, la manzana.
El Apple II, una mejora del modelo anterior, fue introducido en 1977, convirtiéndose en el primer ordenador de consumo masivo. Los pedidos llovieron y Apple pasó a ser la empresa de mayor crecimiento en Estados Unidos. Tres años después, Apple salió a la Bolsa con un precio de 22 dólares por acción, lo que convirtió a Jobs y Wozniak en millonarios. Por entonces, Jobs adquirió la fama de hombre genial, dotado de una creatividad que le permitía construir un ordenador y a la vez comercializarlo.
Steve Jobs y Wozniak hacia 1977

Tras el Apple II, Jobs y Wozniak se enfrascaron en la creación del Macintosh, el primer ordenador asequible y fácil de manejar sin necesidad de saber informática, por lo que a Jobs se le considera el verdadero creador del concepto de PC (Personal Computer, ordenador personal). El lanzamiento del Macintosh en 1984 supuso un vuelco en la industria informática. Su gran innovación fue la introducción del ratón para desarrollar funciones haciendo clic sobre las ventanas que se abren en la pantalla, lo que facilita la interacción entre el usuario y el ordenador. En este sentido, Jobs realizó una gran contribución a la introducción de los ordenadores personales en la enseñanza.
En 1981, el más fuerte competidor de Apple, IBM, había sacado al mercado su primer ordenador personal. Con el ánimo de mantener la competitividad de su empresa, Jobs decidió reclutar para la presidencia de Apple al entonces presidente de PepsiCo., John Sculley, sin saber que éste le acabaría echándole de su propia empresa. Sculley, un ejecutivo de la vieja guardia, chocaba con la rebeldía y las maneras heterodoxas de Jobs. Al mismo tiempo empezaron los problemas entre Jobs y Wozniak, relegado a un segundo plano tras un accidente, pero que, según otras versiones, se debieron al difícil carácter de Jobs, tildado en medios informáticos de "tirano carismático". El resultado de ambos conflictos personales fue que Wozniak se marchó de Apple en 1985, año en que fueron despedidos 1.200 empleados a raíz de una amplia reestructuración en la empresa, y Jobs dimitió para fundar la empresa NextStep Inc.
Jobs ante sus ordenadores Macintosh (1984)

A continuación Jobs compró a George Lucas por 50 millones de dólares la división de animación de su imperio Lucas Film. Así nacieron en 1986 los Estudios de Animación Pixar, que recibieron un premio de la Academia de Cine por la película de animación por ordenador Tin Toy en 1989.
El mismo año NextStep lanzó su primer ordenador, repleto de funciones extraordinarias pero que no resultó rentable por su elevado precio y su incompatibilidad con la mayoría de los sistemas en el mercado. Finalmente, el visionario Jobs cerró la división de ordenadores en 1993, con el mérito de haber creado el aparato con el que el programador británico Tim Berners-Lee ideó la World Wibe Web, que sería la base del desarrollo y popularización de Internet.
En 1995 Pixar lanzó Toy Story, una producción conjunta con Disney que ya forma parte de la historia del cine por ser el primer largometraje realizado íntegramente por ordenador. La película fue un éxito de taquilla y obtuvo un Oscar de la Academia de Hollywood. Bichos fue el siguiente gran éxito de Pixar. Entretanto, Apple decaía tras el lanzamiento de los ordenadores compatibles IBM equipados con el sistema operativo Windows, de Microsoft, que según varios expertos se inspiró en el Macintosh de Apple. La enemistad entre Steve Jobs y Bill Gates, dos personalidades contrapuestas, fue el tema de una película televisiva titulada Piratas del Silicon Valley, producida en 1998 por la cadena TNT.
En diciembre de 1996, sumergida en una gran crisis, Apple decidió comprar Next, lo que supuso la vuelta de Jobs a la empresa con un cargo de asesor interino, por el que Jobs, voluntariamente, no recibía ningún salario. La dimisión del presidente de Apple encumbró nuevamente a Jobs al frente de la compañía. En agosto de 1997, un mes antes de su nombramiento como presidente provisional de Apple, Jobs anunció un acuerdo con su hasta entonces rival Microsoft, que decidió invertir 150 millones de dólares en Apple. Las dos compañías acabaron comprendiendo que se necesitaban y se complementaban, pues Microsoft es el principal fabricante de programas para Macintosh, y Apple uno de los principales testigos del juicio antimonopolio contra la empresa de Bill Gates en EEUU.


Durante esta segunda etapa en Apple, en la que se mantendría como director ejecutivo hasta 2009, Steve Jobs continuó en su línea rompedora, impulsando productos decididamente innovadores. En 1998 volvió a dar la vuelta al mercado informático con el lanzamiento del iMac, un PC compacto integrado en el monitor, que además de su diseño vanguardista estaba preparado para navegar en Internet. Su éxito de ventas colocó a Apple nuevamente entre los cinco mayores fabricantes de ordenadores personales de EEUU, con una revalorización de sus acciones en un 50%. Nuevas versiones del iMac, con mayor potencia y cada vez más sofisticadas prestaciones y diseño, seguirían apareciendo en los años siguientes, con gran aceptación entre su legión de usuarios incondicionales.
En 2001 desembarcó en el mercado musical con un reproductor de audio de bolsillo, el iPod, y dos años después creó la tienda musical iTunes, que lideró de inmediato la venta de música en línea y sigue manteniendo su posición dominante. Problemas de salud, sin embargo, lo obligaron a apartarse temporalmente de su trabajo en 2004, en que fue tratado de un cáncer de páncreas. En 2007 presentó el iPhone, primero de la familia de teléfonos inteligentes de alta gama producida por Apple, con pantalla táctil y conexión a Internet. En 2009, año en que hubo de someterse a un trasplante de hígado, delegó la mayor parte de sus funciones en Timothy Cook. Con su creatividad intacta, todavía en 2010 Steve Jobs sorprendió al mundo con un innovador producto, el iPad, un híbrido de tablet PC y teléfono móvil cuya segunda versión, el iPad 2, presentaría en marzo de 2011, en una de sus últimas apariciones en público.





lunes, 12 de diciembre de 2011

Robert Noyce
Archivo:Noyce1.jpg



Biografía

Robert Noyce, (BurlingtonIowa12 de diciembre de 1927 - Austin, Texas3 de junio de1990)1 fue un científico estadounidense cofundador de la empresa Intel 2 , inventó elcircuito integrado, al mismo tiempo que Jack Kilby en 1958, e ideó métodos prácticos para producir microprocesadores o CPU en masa 2 .
Apodado «el alcalde de Silicon Valley» 2 , parte de los niños de Fairchild y cofundador deFairchild Semiconductor en 1957 e Intel en 1968. El primer chip apareció en el mercado en 1961 de la mano de Jack Kilby (Texas Instruments). En 1964 algunos ya contenían 32 transistores; en 1965 el chip más complejo del mercado se había desarrollado en Fairchild (cuna de los fundadores de Intel) y contaba con 64 transistores (un Pentium III incluye 28 millones).
El 18 de julio de 1968, Robert Noyce, Gordon Moore y Andrew Grove crean la empresa Intel en la que se desarrollan ideas prácticas para la memoria de semiconductores, una industria recién nacida. En un principio, Intel era una modesta empresa formada por 12 científicos en un pequeño local alquilado en Mountain View, que creían en las posibilidades de la memoria de silicio y apostaron valientemente por ella. En aquel momento nadie se atrevía a separarse de la reinante memoria magnética que, aunque ocupaba más espacio, consumía más energía y tenía menos prestaciones, era 100 veces más barata.
El éxito comenzó modestamente cuando consiguieron que los japoneses Busicom les encargasen una remesa de microprocesadores para sus calculadoras programables. Pese a las indicaciones de los japoneses, el ingeniero Ted Hoff diseñó un chip revolucionario que podía ser utilizado en muchos otros dispositivos sin necesidad de ser rediseñado. Los chicos de Intel enseguida se dieron cuenta del potencial de este producto, capaz de dotar de ‘inteligencia’ a muchas máquinas ‘tontas’. El único problema es que Busicom poseía los derechos, y para recuperarlos Intel tuvo que pagarles 60.000 dólares.
En 1971 nació el primer microprocesador (en aquella época aún no se les conocía por ese nombre). El potentísimo 4004 estaba compuesto por 4 de estos chips y otros 2 chips de memoria. Este conjunto de 2.300 transistores que ejecutaba 60.000 operaciones por segundo se puso a la venta por 200 dólares. Muy pronto Intel comercializó el 8008, capaz de procesar el doble de datos que su antecesor y que inundó los aparatos de aeropuertos, restaurantes, salones recreativos, hospitales, gasolineras...
Pero Intel no siempre tuvo la visión de futuro acertada. Moore recuerda como a mediados de los 70 le propusieron comercializar el 8080equipado con un teclado y un monitor orientado al mercado doméstico. Es decir, le estaban proponiendo ser los pioneros en el mundo de las computadoras personales. Pero no vieron la utilidad de esos cacharros y descartaron la idea.
En 1981 Intel desarrolló los procesadores de 16 bits 8086 y los de 8 bits 8088 que acumularon la friolera de 2.500 premios de diseño en un solo año. Con ellos IBM acudió por primera vez a un fabricante externo y confeccionó el primer PC. En 1982 apareció el revolucionario 286, equipado con 134.000 transistores y el primero en ofrecer compatibilidad de software con sus predecesores.
En 1985 llegó el 386, un micro de 32 bits y 275.000 transistores que fue rápidamente adoptado por Compaq para su computadora personalCompaq Deskpro 386. Cuatro años después llegaría el robusto Intel 486 de 1,2 millones de transistores.
En 1993 Intel comienza a desarrollar la línea Pentium, plena de nuevos estándares y de transistores, y con 5 veces más capacidad que el 486. Después llegará el Pentium Pro y en 1997 incluye en sus procesadores la tecnología MMX. En mayo de 1997 aparece el Pentium II, un año más tarde el Pentium II Xeon, tras el que llegaría el Pentium III.
Gordon E. Moore ha sido cofundador, vicepresidente y CEO de Intel. Desde 1997 es consejero emérito. Moore, de 71 años y doctorado en Química y en Física, es conocido en todo el mundo por haber afirmado en 1965 que la capacidad de los microprocesadores se doblaría cada año y medio. Es la espectacular y discutida Ley de Moore.
Andrew S. Grove, químico nacido en Hungría en 1936, participó en la fundación de Intel. En 1979 fue nombrado presidente y en 1987 CEO, cargo que ocupó hasta mayo de 1997. Actualmente ocupa el cargo de consejero. Es famoso por su lema "Sólo los paranoicos sobreviven".
Craig R. Barrett, de 61 años, se unió a la compañía en 1974, en 1984 fue nombrado vicepresidente, en 1992 fue elegido para formar parte del consejo de dirección y en 1993 pasó a ser jefe de operaciones. Actualmente, y desde que sucedió a Grove, es el CEO de Intel.
Su eslogan Intel Inside es una realidad, casi todas las computadoras personales tienen como cerebro un Pentium o un Celeron, el 80% del mercado de los microprocesadores.
Los dos principales clientes de Intel son los fabricantes de computadoras Compaq y Dell. Sólo estas dos compañías suman el 13% de las ventas de la Intel. El 55% de las ventas proceden de fuera de los Estados Unidos.
En su último ejercicio correspondiente a 1999, Intel tuvo unas ventas por valor de 29.389 millones de dólares, lo que supuso un crecimiento del 11,9% respecto al año anterior, y unos ingresos netos de 7.314 millones de dólares, un 20,5% más que en 1998.
Intel cuenta con más de 70.000 trabajadores distribuidos por 40 países alrededor del mundo. Su tasa de contratación crece cerca de un 9% al año.
Sus dos principales rivales, en cuanto a microprocesadores se refiere son AMD y Cyrix.
Legado
La Fundación Noyce fue fundada en 1991 por su familia. La fundación se dedica a mejorar la educación pública en matemáticas y ciencias en grados K-12. Con motivo del cumpleaños número 84 de Robert Noyce, Google diseñó un logotipo especial en honor al co-fundador de Intel

domingo, 12 de junio de 2011


George Boole (1815–1864)(Lincoln, Reino Unido, 1815 - Ballintemple, actual Irlanda, 1864) Matemático británico. Procedía de una familia venida a menos y tuvo que desestimar la idea de convertirse en monje al verse obligado a mantener a sus padres. A los dieciséis años enseñaba matemáticas en un colegio privado y más tarde fundó uno propio. A los veintecuatro años, tras la publicación de su primer escrito, pudo ingresar en Cambridge, pero desestimó la oferta, de nuevo a causa de sus deberes respecto a su familia. En 1849 le nombraron profesor de matemáticas del Queen’s College, en Cork, donde permaneció el resto de su vida.


El gran descubrimiento de Boole fue aplicar una serie de símbolos a operaciones lógicas y hacer que estos símbolos y operaciones -por elección cuidadosa- tuvieran la misma estructura lógica que el álgebra convencional. En el álgebra de Boole, los símbolos podían manipularse según reglas fijas que producirían resultados lógicos.

En 1854 publicó Investigación sobre las leyes del pensamiento, libro que trataba por completo de la lógica simbólica y su álgebra. La influencia de esta lógica matemática sobre las matemáticas modernas tendría una evolución lenta: si en un primer momento no parecía más que un intrincado juego de palabras, más adelante se vio que era de lo más útil, y hasta completamente indispensable para conseguir la matemática lógica. Boole se casó a la edad de cuarenta años y tuvo cinco hijas, a las que no llegó a ver adolescentes.

La lógica Booleana es el formalismo matemático por medio del cual se llevan al cabo las operaciones que procesa la computadora a través del manejo y control de información eléctrica, por medio de sus transistores. De esta manera puedo decirle que dentro de la enseñanza de la licenciatura en matemáticas, la más longeva de la Facultad, puesto que se imparte desde hace 42 años, al igual que la licenciatura de la enseñanza de las matemáticas, se destaca el papel de este personaje.

¿Podría explicar de qué forma se da esta lógica Booleana?

Su álgebra consiste en un método para resolver problemas de lógica que recurre solamente a los valores binarios 1 y 0 y a tres operadores fundamentales: AND (y), OR (o) y NOT (no). De esta forma se finca la lógica algebraica Booleana la cual ahora encuentra aplicación en la construcción de computadores, circuitos eléctricos, etc.

Para explicar And, podemos hablar del valor del cero, dará evidentemente cero, para lo cual gráficamente se muestran dos compuertas, donde la información fluirá siempre y cuando en ambas haya información, de no ser así la respuesta es no hay información:

A and B = C 0 + 0 = 0 0 + 1 = 0 1 + 0 = 0 1 + 1 = 1 Por su parte para el valor de OR, señala que sí en alguna de las entradas hay información pues se determina que sí existe en alguna de las dos compuertas el flujo de datos:

A or B = C 0 + 0 = 0 0 + 1 = 1 1 + 0 = 1 1 + 1 = 1 En cambio para las compuertas del NOT, observamos lo siguiente: se cuenta con una sola entrada de compuerta, la cual niega la entrada de uno. Sí en A hay un cero, lo niega, y al negar al cero, el valor es 1.

not A = B 0 1 1 0

El álgebra booleana es un sistema matemático deductivo centrado en los valores cero y uno (falso y verdadero). Un operador binario “ º “ definido en éste juego de valores acepta un par de entradas y produce un solo valor booleano, por ejemplo, el operador booleano AND acepta dos entradas booleanas y produce una sola salida booleana. Para cualquier sistema algebraico existen una serie de postulados iniciales, de aquí se pueden deducir reglas adicionales, teoremas y otras propiedades del sistema, el álgebra booleana a menudo emplea los siguientes postulados:

Cerrado. El sistema booleano se considera cerrado con respecto a un operador binario si para cada par de valores booleanos se produce un solo resultado booleano.

Conmutativo. Se dice que un operador binario “ º “ es conmutativo si A º B = B º A para todos los posibles valores de A y B.

Asociativo. Se dice qu un operador binario “ º “ es asociativo si (A º B) º C = A º (B º C) para todos los valores booleanos A, B, y C.

Distributivo. Dos operadores binarios “ º “ y “ % “ son distributivos si A º (B % C) = (A º B) % (A º C) para todos los valores booleanos A, B, y C.

Identidad. Un valor booleano I se dice que es un elemento de identidad con respecto a un operador binario “ º “ si A º I = A.

Inverso. Un valor booleano I es un elemento inverso con respecto a un operador booleano “ º “ si A º I = B, y B es diferente de A, es decir, B es el valor opuesto de A.

Para nuestros propósitos basaremos el álgebra booleana en el siguiente juego de operadores y valores: - Los dos posibles valores en el sistema booleano son cero y uno, a menudo llamaremos a éstos valores respectivamente como falso y verdadero. - El símbolo · representa la operación lógica AND. Cuando se utilizen nombres de variables de una sola letra se eliminará el símbolo ·, por lo tanto AB representa la operación lógica AND entre las variables A y B, a ésto también le llamamos el producto entre A y B. - El símbolo “+” representa la operación lógica OR, decimos que A+B es la operación lógica OR entre A y B, también llamada la suma de A y B. - El complemento lógico, negación ó NOT es un operador unitario, en éste texto utilizaremos el símbolo “ ‘ “ para denotar la negación lógica, por ejemplo, A’ denota la operación lógica NOT de A. - Si varios operadores diferentes aparecen en una sola expresión booleana, el resultado de la expresión depende de la procedencia de los operadores, la cual es de mayor a menor, paréntesis, operador lógico NOT, operador lógico AND y operador lógico OR. Tanto el operador lógico AND como el OR son asociativos por la izquierda. Si dos operadores con la misma procedencia están adyacentes, entonces se evalúan de izquierda a derecha. El operador lógico NOT es asociativo por la derecha. Utilizaremos además los siguientes postulados:

P1 El álgebra booleana es cerrada bajo las operaciones AND, OR y NOT

P2 El elemento de identidad con respecto a · es uno y con respecto a + es cero. No existe elemento de identidad para el operador NOT

P3 Los operadores · y + son conmutativos.

P4 · y + son distributivos uno con respecto al otro, esto es, A·(B+C) = (A·B)+(A·C) y A+(B·C) = (A+B)·(A+C).

P5 Para cada valor A existe un valor A’ tal que A·A’ = 0 y A+A’ = 1. Éste valor es el complemento lógico de A.

P6 · y + son ambos asociativos, ésto es, (AB)C = A(BC) y (A+B)+C = A+(B+C).

Es posible probar todos los teoremas del álgebra booleana utilizando éstos postulados, además es buena idea familiarizarse con algunos de los teoremas más importantes de los cuales podemos mencionar los siguientes:

Teorema 1: A + A = A

Teorema 2: A · A = A

Teorema 3: A + 0 = A

Teorema 4: A · 1 = A

Teorema 5: A · 0 = 0

Teorema 6: A + 1 = 1

Teorema 7: (A + B)’ = A’ · B’

Teorema 8: (A · B)’ = A’ + B’

Teorema 9: A + A · B = A

Teorema 10: A · (A + B) = A

Teorema 11: A + A’B = A + B

Teorema 12: A’ · (A + B’) = A’B’

Teorema 13: AB + AB’ = A

Teorema 14: (A’ + B’) · (A’ + B) = A’

Teorema 15: A + A’ = 1

Teorema 16: A · A’ = 0

sábado, 11 de junio de 2011

Leonardo de Pisa


Leonardo de Pisa, Leonardo Pisano o Leonardo Bigollo (c. 1170 - 1250), también llamado Fibonacci, fue un matemático italiano, famoso por haber difundido en Europa el sistema de numeración arábiga actualmente utilizado, el que emplea notación posicional (de base 10, o decimal) y un dígito de valor nulo: el cero; y por idear la sucesión de Fibonacci.
El apodo de Guglielmo (Guillermo), padre de Leonardo, era Bonacci (simple o bien intencionado). Leonardo recibió póstumamente el apodo de Fibonacci (por filius Bonacci, hijo de Bonacci). Guglielmo dirigía un puesto de comercio en Bugía (según algunas versiones era el cónsul de Pisa), en el norte de África (hoy Bejaia, Argelia), y de niño Leonardo viajó allí para ayudarlo. Allí aprendió el sistema de numeración árabe.
Consciente de la superioridad de los numerales árabes, Fibonacci viajó a través de los países del Mediterráneo para estudiar con los matemáticos árabes1 más destacados de ese tiempo, regresando cerca de 1200. En 1202, a los 32 años de edad, publicó lo que había aprendido en el Liber Abaci (libro del ábaco o libro de los cálculos). Este libro mostró la importancia del nuevo sistema de numeración aplicándolo a la contabilidad comercial, conversión de pesos y medidas, cálculo, intereses, cambio de moneda, y otras numerosas aplicaciones. En estas páginas describe el cero, la notación posicional, la descomposición en factores primos, los criterios de divisibilidad. El libro fue recibido con entusiasmo en la Europa ilustrada, y tuvo un impacto profundo en el pensamiento matemático europeo.
Leonardo fue huésped del Emperador Federico II, que se interesaba en las matemáticas y la ciencia en general. En 1240, la República de Pisa lo honra concediéndole un salario permanente (bajo su nombre alternativo de Leonardo Bigollo).
Conocido por Fibonacci, hijo de Bonaccio, no era un erudito, pero por razón de sus continuos viajes por Europa y el cercano oriente, fue el que dio a conocer en occidente los métodos matemáticos de los hindúes.

martes, 22 de febrero de 2011

Albert Einstein


(Ulm, 1879 - Princeton, 1955) Científico estadounidense de origen alemán. En 1880 su familia se trasladó a Munich y luego (1894-96) a Milán. Frecuentó un instituto muniqués, prosiguió sus estudios en Italia y finalmente se matriculó en la Escuela Politécnica de Zurich (1896-1901). Obtenida la ciudadanía suiza (1901), encontró un empleo en el Departamento de Patentes; aquel mismo año contrajo matrimonio.


Albert Einstein

En 1905 publicó en Annalen der Physik sus primeros trabajos sobre la teoría de los quanta, la de la relatividad y los movimientos brownianos, y llegó a profesor libre de la Universidad de Berna. En 1909 fue nombrado profesor adjunto de la de Zurich y en 1910 pasó a enseñar Física teórica en la Universidad alemana de Praga. Luego dio clases de esta misma disciplina en la Escuela Politécnica zuriquesa (1912). En 1913, nombrado miembro de la Academia de Prusia, se trasladó a Berlín. En 1916 se casó en segundas nupcias. Publicó entonces Die Grundlage der allgemeinen Relativitätstheorie e inició una serie de viajes a los Estados Unidos, Inglaterra, Francia, China, Japón, Palestina y España (1919-32).

En 1924 entregó a la imprenta Über die spezielle und die allgemeine Relativitätstheorie y el año siguiente recibió el premio Nobel por su teoría sobre el efecto fotoeléctrico. En 1933 abandonó la Academia de Prusia y se enfrentó valerosamente a Hitler. Iniciada la persecución nazi contra los judíos, marchó a América y enseñó en el Instituto de Estudios Superiores de Princeton (Nueva Jersey). En 1945 se retiró a la vida privada, a pesar de lo cual prosiguió intensamente su actividad científica.

Einstein es uno de los grandes genios de la humanidad y en el ámbito de las ciencias físicas ha llevado a cabo una revolución todavía en marcha y cuyos alcances no pueden medirse aún en toda su amplitud. En su primera formulación (teoría de la relatividad restringida) extendió a los fenómenos ópticos y electromagnéticos el principio de relatividad galileo-newtoniano, anteriormente limitado sólo al campo de la Mecánica, y afirmó la validez de las leyes de esta última tanto respecto de un sistema galileano de referencia K, como en relación con otro de referencia K' en movimiento rectilíneo y uniforme respecto de K.

Según las teorías de Einstein, la ley de la propagación de la luz en el vacío debe tener, como cualquier otra general de la naturaleza, la misma expresión ya referida, por ejemplo, a una garita ferroviaria o a un vagón de tren en movimiento rectilíneo y uniforme en relación con ésta; dicho en otros términos, la velocidad de la luz no se ajusta a la de los sistemas de referencia que se mueven en línea recta y de manera uniforme respecto del movimiento de la misma luz. En realidad, el experimento de Michelson-Morley, mil veces repetido y comprobado a partir de 1881, había demostrado la diferencia existente entre la velocidad de la luz y la de la Tierra.

La relatividad restringida ofrece la razón de tal hecho, antes inexplicable. A su vez, la invariabilidad de la velocidad de la luz lleva a la introducción, en Física, de las transformaciones de Lorentz, según las cuales la distancia temporal entre dos acontecimientos y la que separa dos puntos de un cuerpo rígido se hallan en función del movimiento del sistema de referencia, y por ello resultan distintas para K y K'. Ello nos libra, en la formulación de las leyes ópticas y electromagnéticas, de la relación con el hipotético sistema fijo "absoluto", rompecabezas metafísico de la Física clásica, puesto que tales leyes, como aparecen formuladas en la relatividad restringida, valen para K e igualmente para K', lo mismo que las de la Mecánica.


El tránsito de la Física clásica a la relatividad restringida representa no sólo un progreso metodológico. Esta última, en efecto, presenta -como observa Einstein (Sobre la teoría especial y general de la relatividad)- un valor heurístico mucho mayor que el de la Física clásica, por cuanto permite incluir en la teoría, como consecuencia de ella, un notable número de fenómenos, entre los que figuran, por ejemplo, la aparente excepción en la relación de la velocidad de la luz con la de una corriente de agua en el experimento de Fizeau; el aumento de la masa de los electrones al incrementarse las velocidades de éstos, observado en los rayos catódicos y en las emanaciones del radio; la masa de los rayos cósmicos, cuarenta mil veces superior a la de la misma en reposo; el efecto Doppler; el efecto Compton; la existencia del fotón y la magnitud de su impulso, previstas por Einstein y comprobadas luego experimentalmente; la cantidad de energía requerida por las masas de los núcleos para la transmutación de los elementos; la fina estructura de las rayas del espectro, calculada por Sommerfield mediante la Mecánica relativista; la existencia de los electrones positivos, prevista por Dirac como solución a ciertas ecuaciones procedentes de la Mecánica de la relatividad; el magnetismo de los electrones, calculado por Dirac con la transformación de las ecuaciones de Schrödinger en las correspondientes de la Mecánica relativista, etc.

Una de las consecuencias de la relatividad restringida es el descubrimiento de la existencia de una energía E igual a mc2 en toda masa m. Esta famosa y casi mágica fórmula nos dice que la masa puede transformarse en energía, y viceversa; de ahí el memorable anuncio hecho por Einstein hace cincuenta años sobre la posibilidad de la desintegración de la materia, llevada luego a cabo por Fermi.

Sin embargo, la relatividad restringida no elimina el sistema fijo absoluto del campo de la Física de la gravitación. Tal sistema, en última instancia, nace del hecho por el cual la relatividad restringida admite aún, en la formulación de las leyes de la naturaleza, la necesidad de situarse bajo el ángulo de los sistemas privilegiados K y K' ¿Qué ocurriría de ser formuladas las leyes físicas de tal suerte que valieran también para un sistema K" en movimiento rectilíneo no uniforme, o bien uniforme pero no según una línea recta? Aquí la distinción entre campo de inercia y de gravitación deja de ser absoluta, puesto que, por ejemplo, respecto de varios individuos situados en un ascensor que caiga de acuerdo con un movimiento uniformemente acelerado, todos los objetos del interior del ascensor se hallan en un campo de inercia (quien dejara suelto entonces un pañuelo vería cómo éste se mantiene inmóvil ante sí), en tanto que para un observador situado fuera, y en relación con el cual el aparato se mueve con un movimiento uniformemente acelerado, el ascensor se comporta como un campo de gravitación.

La relatividad general es precisamente la Física que mantiene la validez de las leyes incluso respecto del sistema K". El postulado de ésta tiene como consecuencia inmediata la igualdad de la masa inerte y de la ponderal, que la Física clásica había de limitarse a aceptar como hecho inexplicable. Con la relatividad general, la Física alcanza el mayor grado de generalidad y, si cabe, de objetividad. ¿Qué ley natural, en efecto, es válida para sistemas de referencia privilegiados? Ninguna, en realidad. Las leyes naturales deben poder ser aplicables a cualquier sistema de referencia; es ilógico pensar, por ejemplo, que la Física no resulta admisible dentro de un ascensor que caiga con un movimiento uniformemente acelerado o en un tiovivo que gire.

La relatividad general comporta la previsión teórica de numerosos hechos; así, por ejemplo: la desviación de los rayos luminosos que se aproximan a una masa; la traslación de las rayas espectrales; la del movimiento perihélico de Mercurio, etc. La experiencia ha confirmado plenamente estas previsiones teóricas.

Durante los últimos años de su existencia, Einstein fijó los fundamentos de una tercera teoría, la del "campo unitario", que unifica en un solo sistema tanto las ecuaciones del ámbito electromagnético como las del campo de la gravitación. El desarrollo ulterior de esta teoría, dejada por el sabio como herencia, permitirá seguramente la obtención -según observa Infeld, discípulo de Einstein- no sólo de las ecuaciones de ambos campos, sino también de las correspondientes a la teoría de los quanta. Entre sus obras deben destacarse Las bases de la teoría general de la relatividad (1916); Sobre la teoría especial y general de la relatividad (1920); Geometría y experiencia (1921) y El significado de la relatividad (1945).

lunes, 7 de junio de 2010

CURSO DE ELECTRONICA


http://www.4shared.com/file/I8EJgWb9/CURSOELECTRONICAPAULETTESOL.html

EL HOTEL INFINITO DE DAVID HILBERT


David Hilbert (23 de enero de 1862, Königsberg, Prusia Oriental – 14 de febrero de 1943, Göttingen, Alemania) fue un matemático alemán, reconocido como uno de los más influyentes del siglo XIX y principios del XX. Estableció su reputación como gran matemático y científico inventando o desarrollando un gran abanico de ideas, como la teoría de invariantes, la axiomatización de la geometría y la noción de espacio de Hilbert, uno de los fundamentos del análisis funcional. Hilbert y sus estudiantes proporcionaron partes significativas de la infraestructura matemática necesaria para la mecánica cuántica y la relatividad general. Fue uno de los fundadores de la teoría de la demostración, la lógica matemática y la distinción entre matemática y metamatemática. Adoptó y defendió vivamente la teoría de conjuntos y los números transfinitos de Cantor. Un ejemplo famoso de su liderazgo mundial en la matemática es su presentación en 1900 de un conjunto de problemas que establecieron el curso de gran parte de la investigación matemática del siglo XX.

En la pugna por demostrar correctamente algunos de los errores cometidos por Einstein, en la teoría general de la relatividad, David Hilbert se adelantó a las correcciones de Einstein, sin embargo nunca quiso otorgarse el mérito