Post on 20-Oct-2015
Dibujo significa tanto el arte que enseña a dibujar, así como delineación, figura o imagen ejecutada
en claro y oscuro; toma nombre de acuerdo al material con el que se hace.1 El dibujo es una forma de expresión gráfica, plasma imágenes sobre un espacio plano. Debido a lo anterior, es considerado parte de la bella arte conocida como pintura. Es una de las modalidades de las artes visuales. Se considera al dibujo como el lenguaje gráfico universal, ha sido utilizado por la humanidad para transmitir ideas, proyectos y, en un sentido más amplio, su cultura
Tipos de Dibujo
De acuerdo con lo que se desea representar o hacia donde se debe enfocar, el dibujo se clasifica en:
Dibujo Artístico: El "Dibujo Artistico" se define como el tipo de dibujo que sirve para expresar ideas filosóficas o estéticas así como sentimientos y emociones. El artista cuando dibuja cosas, las dibuja tal como las ve emocionalmente de acuerdo con su propia y peculiar manera de percibir la realidad de su entorno. Este tipo de dibujo requiere aptitudes especiales como las personales y naturales.
Dibujo Técnico: Se dice que el "Dibujo Técnico" es el lenguaje gráfico universal técnico normalizado por medio del cual se manifiesta una expresión precisa y exacta y, su objetivo principal es la exactitud precisamente. Las aptitudes para esta clase de dibujo por lo general son adquiridas, es decir, que se llega a él a través de un proceso de conocimiento y aprendizaje. Que se subdivide en "Dibujo Técnico Especializado", según la necesidad o aplicación los más utilizadas o difundidos en el entorno técnico y profesional. Cada uno se caracteriza porque utiliza una simbología propia y específica generalmente normalizada legalmente.
Dibujo Geométrico: Es aquel que se representa por medio de gráficas planas.
Dibujo geométrico constituye un verdadero y novedoso sistema de enseñanza estructurado para garantizar, tanto al alumno de los primeros años de las Escuelas Técnicas como a los de las Facultades de Arquitectura e Ingeniería -bachilleres o peritos mercantiles- un rápido manejo y posterior dominio de la mano sobre el plano. Dibujo Mecánico El dibujo mecánico se emplea en la representación de piezas o partes de máquinas, maquinarias, vehículos como grúas y motos, aviones, helicópteros y máquinas industriales. Los planos que representan un mecanismo simple o una máquina formada por un conjunto de piezas, son llamados planos de conjunto; y los que representa un sólo elemento, plano de pieza. Los que representan un conjunto de piezas con las indicaciones gráficas para su colocación, y armar un todo, son llamados planos de montaje.
Dibujo Arquitectónico Al introducirnos en el dibujo arquitectónico nos ubicamos en la concepción visual que altera el paisaje urbano, los espacios físicos de una obra o infraestructura civil y que es elaborada a escala de reducción para luego ser representada a una escala real o natural, tiene como finalidad ayudar al hombre en su contexto social, cultural e interdisciplinario con su ambiente, forma parte de lo que en fenomenología explica el porque, según las experiencias humanas, se logra una mejora en la calidad de vida. La arquitectura ayuda a moldear la forma de vida de una sociedad y del individuo colectivamente.El dibujo arquitectónico, abarca una gama de representaciones gráficas con las cuales realizamos los planos para la elaboración de edificios, casas, quintas, autopistas etc...Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y correcciones.
Historia del dibujo[editar · editar código]
El dibujo sirve como una herramienta para la representación de objetos reales o ideas que, a
veces, no es posible expresar fielmente con palabras. Los primeros dibujos conocidos se remontan
a la prehistoria; las pinturas rupestres de la Cueva de Altamira son unos de los ejemplos más
antiguos, donde el ser humano plasmó en los techos y paredes de las cavernas lo que consideraba
importante transmitir o expresar (usualmente actividades relacionadas con su forma de vida y su
entorno).
Dibujos y pinturas de la cueva de Altamira.
De las primeras civilizaciones perduran escasos ejemplares de dibujos, normalmente, por la
fragilidad del material en el que fueron ejecutados (se han hallado en ostraca y pinturas murales
inacabadas), o porque eran un medio para elaborar pinturas posteriormente, siendo recubiertos
con capas de color. Las culturas de la Antigua China, Mesopotamia, el valle del Indo, o el Antiguo
Egipto nos han dejado muestras claras de ello, ideando los primeros cánones de proporciones,
como sucedió también en la Antigua Grecia y Roma.
En la Edad Media se utilizó profusamente el dibujo, generalmente coloreado, para representar
sobre pergaminos temas religiosos a modo de explicación o alegoría de las historias escritas,
privando así lo simbólico sobre lo realista, incluso las proporciones y cánones de la época. La
cultura islámica también contribuyó con preciosos dibujos que solían acompañar textos
de anatomía, astronomía o astrología.
Es en el Renacimiento cuando el dibujo eclosiona, logrando alcanzar sublimes cotas. Por primera
vez se estudia el método de reflejar la realidad con la mayor fidelidad posible, con arreglo a normas
matemáticas y geométricas impecables: con Filippo Brunelleschi surge la perspectiva cónica. El
dibujo, de la mano de los grandes artistas renacentistas cobra autonomía, adquiriendo valor propio
en autorretratos, planos arquitectónicos y variados temas realistas –como los de Leonardo da
Vinci–, además de seguir sirviendo como estudio previo imprescindible de otras artes, como
la pintura,escultura, o arquitectura.
Dibujo técnico
Dibujo técnico del símbolo monetario del euro.
El dibujo técnico es un sistema de representación gráfica de diversos tipos de objetos, con el propósito
de proporcionar información suficiente para facilitar su análisis, ayudar a elaborar su diseño y posibilitar
la futura construcción y mantenimiento de éste. Suele realizarse con el auxilio de medios informatizados
o, directamente, sobre el papel u otros soportes planos.
Es la representación gráfica de un objeto o una idea práctica. Esta representación se guía por normas
fijas y preestablecidas para poder describir de forma exacta y clara, dimensiones, formas, características
y la construcción de lo que se quiere reproducir.
Los objetos, piezas, máquinas, edificios, planes urbanos, entre otros , se suelen representar
en planta (vista superior, vista de techo, planta de piso, cubierta, entre otros ), alzado (vista frontal o
anterior y lateral; al menos una) y secciones (o cortes ideales) indicando claramente
susdimensiones mediante acotaciones; son necesarias un mínimo de dos proyecciones (vistas del
objeto) para aportar información útil del objeto.
Formas de expresión[editar · editar código]
El dibujo técnico engloba trabajos como bosquejos y/o croquis, esquemas, diagramas, planos
eléctricos y electrónicos, representaciones de todo tipo de elementos
mecánicos, planos de arquitectura, urbanismo, etc., resueltos mediante el auxilio
deconceptos geométricos, donde son aplicadas la matemática, la geometría euclidiana, diversos
tipos de perspectivas, escalas, etc...
Medios y soportes[editar · editar código]
El dibujo puede ser plasmado en una gran variedad de materiales, como son diversos tipos
de papel, lienzo o acetato (mylar); también puede proyectarse en pantalla, mostrarse en monitor,
recrear animaciones gráficas de sus volúmenes, etc.
Útiles e instrumentos[editar · editar código]
Para realizar el dibujo técnico se emplean diversos útiles o instrumentos: reglas de varios
tipos, compases, lápices, escuadras, cartabón, tiralíneas, rotuladores, etc. Actualmente, se utiliza
con preferencia la informática, en su vertiente de diseño asistido mediante programas (CAD, 3D,
vectorial, etcétera) con resultados óptimos y en continuo proceso de mejora.
Tipos de dibujo técnico[editar · editar código]
Con el desarrollo industrial y los avances tecnológicos el dibujo ha aumentado su campo de acción.
Los principales son:
Dibujo arquitectónico[editar · editar código]
Vistas estándar usadas en el dibujo arquitectónico.
El dibujo arquitectónico abarca una gama de representaciones gráficas con las cuales se realizan
los planos para la construcción de edificios, casas, quintas, autopistas, iglesias, fábricas y puentes
entre otros. Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y
correcciones, donde aparecen los planos de planta, fachadas, secciones, perspectivas,
fundaciones, columnas, detalles y otros.
Dibujo mecánico[editar · editar código]
El dibujo mecánico se emplea en la elaboración de planos para la representación de piezas o
partes de máquinas, maquinarias, vehículos como grúas, motos, aviones, helicópteros y máquinas
industriales. Los planos que representan un mecanismo simple o una máquina formada por un
conjunto de piezas, son llamados planos de conjunto; y los que representa un sólo elemento, plano
de pieza. Los que representan un conjunto de piezas con las indicaciones gráficas, para su
colocación, y armar un todo, son llamados planos de montaje.
Dibujo eléctrico[editar · editar código]
Este tipo de dibujo se refiere a la representación gráfica de instalaciones eléctricas en una
industria, oficina o vivienda que requiera de electricidad. Mediante la simbología correspondiente
se representan acometidas, caja de contador, tablero principal, línea de circuitos, interruptores,
toma corrientes, salidas de lámparas entre otros.
Dibujo geológico[editar · editar código]
El dibujo geológico se emplea en geografía y en geología, en él se representan las diversas capas
de la tierra empleando una simbología y da a conocer los minerales contenidos en cada capa. Se
usa mucho en minería y en exploraciones de yacimientos petrolíferos.
Dibujo topográfico[editar · editar código]
Es el dibujo técnico que tiene por objeto representar en un plano las características de un terreno,
tales como: el relieve, la altura a diferentes niveles, etc. El dibujo topográfico nos representa
gráficamente las características de una determinada extensión de terreno, mediante signos
convencionalmente establecidos. Nos muestra los accidentes naturales y artificiales, cotas o
medidas, curvas horizontales o curvas de nivel.
Dibujo urbanístico[editar · editar código]
Este tipo de dibujo se emplea en la organización de ciudades: en la ubicación de centros urbanos,
zonas industriales, bulevares, calles, avenidas, jardines, autopistas, zonas recreativas entre otros.
Se dibujan anteproyectos, proyectos, planos de conjunto y de pormenor. Otra definición sería que
el urbanismo es el arte de proyectar y construir las ciudades de forma que sean satisfechas todas
las premisas que garantizan la vida digna de los hombres y la eficacia de la gran empresa que
constituye la ciudad. También se define como la ciencia que se ocupa de la ordenación y desarrollo
de la ciudad, persiguiendo, con la ayuda de todos los medios técnicos, determinar la mejor
situación de las vías, edificios e instalaciones públicas, y de las viviendas privadas, de modo que la
población se asiente de forma cómoda, sana y agradable.
Dibujo técnico de las instalaciones sanitarias[editar · editar código]
Tiene por finalidad representar el posicionamiento de cada una de las piezas sanitarias: ducha,
lavamanos, retrete, etc. Incluyendo la ubicación de las tuberías internas o externas. En los planos
de instalaciones sanitarias se utilizan diferentes colores normalizados para indicar si se trata de
cañerías (tuberías), artefactos o elementos de cloaca, pluvial, ventilación, agua caliente o fría.
También en los cortes se puede observar las pendientes de las cañerías, profundidades, alturas o
distancias a planos de referencias.
Dibujo técnico electrónico[editar · editar código]
Se relaciona con la representación de esquemas y diagramas de circuitos electrónicos de
circulación de corriente de poca intensidad tales como radios, televisores, computadoras, etc.
Dibujo técnico de construcciones metálicas[editar · editar código]
Rama del dibujo que se utiliza en el diseño de puentes, galpones, astilleros, herrería en general.
Dibujo técnico cartográfico[editar · editar código]
Es el empleado en cartografía, topografía, y otras representaciones de entornos de gran extensión.
TIPOS DE DIBUJO TÉCNICO
Con el desarrollo industrial y los avances tecnológicos el dibujo ha aumentado su campo de acción. Los
principales son:
Dibujo arquitectónico: El dibujo arquitectónico abarca una gama de representaciones gráficas con las cuales
realizamos los planos para la construcción de edificios, casas, quintas, autopistas, iglesias, fábricas y puentes
entre otros. Se dibuja el proyecto con instrumentos precisos, con sus respectivos detalles, ajuste y
correcciones, donde aparecen los planos de planta, fachadas, secciones, perspectivas, fundaciones,
columnas, detalles y otros.
Dibujo mecánico: El dibujo mecánico se emplea en la representación de piezas o partes de máquinas,
maquinarias, vehículos como grúas y motos, aviones, helicópteros y máquinas industriales. Los planos que
representan un mecanismo simple o una máquina formada por un conjunto de piezas, son llamados planos de
conjunto; y los que representa un sólo elemento, plano de pieza. Los que representan un conjunto de piezas
con las indicaciones gráficas para su colocación, y armar un todo, son llamados planos de montaje.
Dibujo eléctrico: Este tipo de dibujo se refiere a la representación gráfica de instalaciones eléctricas en una
industria, oficina o vivienda o en cualquier estructura arquitectónica que requiera de electricidad. Mediante la
simbología correspondiente se representan acometidas, caja de contador, tablero principal, línea de circuitos,
interruptores, toma corrientes, salidas de lámparas entre otros.
Dibujo electrónico: Se representa los circuitos que dan funcionamiento preciso a diversos aparatos que en la
actualidad constituyen un adelanto tecnológico como las computadoras, amplificadores, transmisores, relojes,
televisores, radios y otros.
Dibujo geológico: El dibujo geológico se emplea en geografía y en geología, en él se representan las
diversas capas de la tierra empleando una simbología y da a conocer los minerales contenidos en cada capa.
Se usa mucho en minería y en exploraciones de yacimientos petrolíferos.
Dibujo topográfico: El dibujo topográfico nos representa gráficamente las características de una determinada
extensión de terreno, mediante signos convencionalmente establecidos. Nos muestra los accidentes naturales
y artificiales, cotas o medidas, curvas horizontales o curvas de nivel.
Dibujo urbanístico: Este tipo de dibujo se emplea en la organización de ciudades: en la ubicación de centros
urbanos, zonas industriales, bulevares, calles, avenidas, jardines, autopistas, zonas recreativas entre otros.
Se dibujan anteproyectos, proyectos, planos de conjunto, planos de pormenor.
Dibujo técnico de instalaciones sanitarias:Tiene por finalidad representar el posicionamiento de cada una
de las piezas sanitarias:ducha, lavamanos, retrete,etc.Incluyendo la ubicación de las tuberías internas o
externas.
Historia del dibujo técnico
Lápices y plumas para dibujo técnico.
La historia del dibujo técnico se inicia gracias a la necesidad de grafismos o dibujos. Las primeras
representaciones que conocemos son laspinturas rupestres, en ellas no solo se intentaba representar la
realidad que le rodeaba, animales, astros, al propio ser humano, etc., sino también sensaciones, como
la alegría de las danzas, o la tensión de las cacerías.
A lo largo de la historia, esta necesidad de comunicarse mediante dibujos, ha evolucionado, dando por
un lado al dibujo artístico y por otro al dibujo técnico. Mientras el dibujo artístico intenta comunicar ideas
y sensaciones, basándose en la sugerencia y estimulando la imaginación del espectador, el dibujo
técnico, tiene como fin, la representación de los objetos lo más exactamente posible, en forma y
dimensiones.
Hoy en día, se está produciendo una confluencia entre los objetivos del dibujo artístico y técnico. Esto es
consecuencia de la utilización de los ordenadores en el dibujo técnico, con ellos se obtienen
recreaciones virtuales en 3D, que si bien representan los objetos en verdadera magnitud y forma,
también conllevan una fuerte carga de sugerencia para el espectador.
Primeras manifestaciones[editar · editar código]
La primera manifestación conocida del dibujo técnico está en un dibujo de construcción que aparece
esculpido en la estatua llamada El arquitecto, que representa al gobernador sumerio Gudea―quien
gobernó entre el 2144 y el 2124 (o 2122) a. C.―, y que se encuentra en el Museo del Louvre de París.
Del año 1650 a. C. data el papiro de Ahmes. Este escriba egipcio, redactó, en un papiro de 33 × 548 cm,
una exposición de contenido geométrico dividida en cinco partes que abarcan: laaritmética,
la estereotomía, la geometría y el cálculo de pirámides. En este papiro se llega a dar un valor
aproximado del número pi.
En el año 600 a. C. encontramos a Tales, filósofo griego nacido en Mileto. Fue el fundador de la filosofía
griega, y está considerado como uno de los Siete Sabios de Grecia. Tenía conocimientos en todas las
ciencias, pero llegó a ser famoso por sus conocimientos de astronomía, después de predecir el eclipse
de sol que ocurrió el 28 de mayo del 585 a. C. Se dice de él que introdujo la geometría en Grecia,
ciencia que aprendió en Egipto. Sus conocimientos, le sirvieron para descubrir importantes propiedades
geométricas. Tales no dejó escritos: el conocimiento que se tiene de él procede de lo que se cuenta en
la Metafísica de Aristóteles.
Nacido en la isla de Samos, Pitágoras fue instruido en las enseñanzas de los primeros filósofos jonios,
Tales de Mileto, Anaximandro y Anaxímenes. Fundó un movimiento con propósitos religiosos, políticos y
filosóficos, conocido como pitagorismo. A dicha escuela se le atribuye el estudio y trazado de los tres
primeros poliedros regulares: tetraedro, hexaedro y octaedro. Pero quizás su contribución más conocida
en el campo de la geometría es el teorema de la hipotenusa, conocido como teorema de Pitágoras, que
establece que "en un triángulo rectángulo, el cuadrado de la hipotenusa, es igual a la suma de los
cuadrados de los catetos".
En el año 300 a. C., encontramos a Euclides, matemático griego. Su obra principal Elementos de
geometría, es un extenso tratado de matemáticas en 13 volúmenes sobre materias tales
como:geometría plana, magnitudes inconmensurables y geometría del espacio (Véase Geometría
euclidiana). Probablemente estudio en Atenas con discípulos de Platón. Enseñó geometría enAlejandría,
y allí fundó una escuela de matemáticas.
Arquímedes (287-212 a. C.), notable matemático e inventor griego, que escribió importantes obras sobre
geometría plana y del espacio, aritmética y mecánica. Nació en Siracusa, Sicilia, y se educó en
Alejandría (Egipto). Inventó formas de medir el área de figuras curvas, así como la superficie y
el volumen de sólidos limitados por superficies curvas. Demostró que el volumen de unaesfera es dos
tercios del volumen del cilindro que la circunscribe. También elaboró un método para calcular una
aproximación del valor de pi (p), la proporción entre el diámetro y la circunferenciade un círculo, y
estableció que este número estaba en 3 10/70 y 3 10/71.
Apolonio de Perga, matemático griego, llamado «el Gran Geómetra», que vivió durante los últimos años
del siglo III y principios del siglo II a. C. Nació en Perga (en la región de Panfilia, en la actual Turquía).
Su mayor aporte a la geometría fue el estudio de las curvas cónicas, que reflejó en su Tratado de las
cónicas, que en un principio estaba compuesto por ocho libros.
Un sketch es una escena que dura entre uno y diez minutos aproximadamente. En ella
participan actores o comediantes y puede ser montada en un teatro o difundida
por televisión e Internet.
Los sketches, que solían usarse en los vodeviles, han sido incorporados a espectáculos de
variedades, programas cómicos, entretenimiento para adultos, talk shows y algunos shows
infantiles, como Plaza Sésamo.
A menudo, el sketch es improvisado por los actores la primera vez que se realiza y el
resultado de ésto es posteriormente transcrito a modo de libreto. No obstante, la
improvisación no se practica necesariamete en todas las ocasiones.
Historia[editar · editar código]
Los sketches tienen su origen en los vodeviles y en los music halls, donde un gran número de
breves, pero hilarantes actos eran exhibidos uno tras otro para formar un programa mayor.
EnInglaterra, las escenas pasaron del escenario a las radioemisoras y de éstas a la televisón.
Históricamente, los sketches no estaban relacionados entre sí, pero más recientemente se ha
impuesto la moda de reunir todos los actos bajo un mismo tema, con personajes recurrentes que
aparecen más de una vez. Esta idea fue tomada del cuarteto británico The League of Gentlemen,
cuyos sketches narran las historias de los habitantes del pueblo fiticio de Royston Vasey.
En Norteamérica, los sketches contemporáneos son la consecuencia de las improvisaciones de
los años 1970. Por el contrario, los actos británicos han sido desarrollados mayoritariamente
gracias a la escritura, con autores que, a menudo, trabajan en parejas.
Algunos grupos contemporáneos que realizan notables sketches sobre escenarios son The Second
City, los Upright Citizens Brigade y The Groundlings. Los programas de televisión que más se
destacan con sus breves escenas cómicas son Saturday Night Live, Mad TV y In Living Color,
entre otros.
Una de las últimas tendencias de la comedia con sketches es distribuirla a través de Internet. Las
escenas creadas por aficionados y profesionales son vistas por millones de personas en sitios web
como YouTube, Super Deluxe y iFilm.
1. eHow en Español »2. Pasatiempos »3. Métodos de dibujo técnico
Métodos de dibujo técnicoEscrito por Kyle Fiechter | Traducido por Jose Luis Sabogal
Las herramientas proveen una forma precisa de crear dibujos técnicos precisos.drafting image by Kimberly Reinick from Fotolia.com
Los dibujos técnicos, de acuerdo a Tooley y Dingle, autores del libro "Ingeniería nacional Btec: unidades principales para todos los caminos nacionales de ingeniería Btec", son "representaciones gráficas de una idea o producto que debe ser procesado, fabricado o construído". Estos dibujos (también conocidos como planos) son a menudo utilizados por diseñadores, arquitectos e ingenieros para describir de manera precisa un objeto. Hoy, el diseño dirigido por computador (CAD) es a menudo utilizado para acelerar este proceso, debido a que las bases del dibujo técnico son muy importantes en aspecto de diseño.
Otras personas están leyendo
Ejercicios de dibujo técnico
Cómo enseñar dibujo técnico a estudiantes
Visualización espacialLa práctica de la visualización espacial te permite representar un objeto tridimensional como un dibujo de dos dimensiones y tomar la información de un dibujo de dos dimensiones y formar una imagen mental de cómo luce el dibujo en un objeto de tres dimensiones. Goetsch, autor de "Dibujo técnico", apunta que, algunas personas poseen el talento de la visualización espacial, muchos no lo tienen; sin embargo, aquellos que no son naturalmente hábiles pueden aprender con la práctica.
Proyección ortográficaLos dibujos ortográficos son representaciones bidimensionales de un dibujo de un objeto en serie para crear vistas multi fragmentarias de un objeto. De acuerdo a Mitton, autor de "presentación visual del diseño interior", es de gran ayuda, visualizar estas proyecciones como una caja transparente: el "plano" es la vista desde la parte superior de esta caja
transparente. Las "elevaciones" están representadas por las vistas de los lados de la caja, mostrando el objeto visible en una imagen plana. Cuando la construcción o el objeto es dibujado como un plano vertical cortado, esto se llama una "sección"; similarmente, un plano horizontal que se ha cortado a través de la construccióno un objeto revela una vista "plano de piso". Dobson de forum4.info dice que los dibujos ortográficos incluyen arreglos generales, dibujos, desarrollos y secciones que muestran características internas.
Dibujos ilustradosLos dibujos ilustrados, o dibujos en tres dimensiones, pueden variar de los bosquejos hechos a mano, hasta ilustraciones precisas y detalladas en perspectiva según Mitton. Estos dibujos pueden ser útiles para presentar diseños a los clientes y permitir a los diseñadores ver el volumen entero del espacio. Una forma de dibujos ilustrados es un dibujo paralíneo. Ching, en su libro "gráficos de arquitectura", describe que estos dibujos comprenden proyecciones axonométricas (isométricas, dimétricas, trimétricas) y oblicuas. Estos dibujos tienen tres características en común, dice Mitton: líneas paralelas que son dibujadas en paralelo, sin puntos convergentes ni de fuga; líneas verticales dibujadas como verticales verdaderas; y es utilizado algún método de escala proporcional. A la inversa, los dibujos en perspectiva(también dibujos ilustrados) muestran un objeto de tres dimensiones como si fuera visto desde una ventana, completo con líneas convergentes y con puntos de fuga.
Métodos modernos de dibujo. La modernización del dibujo técnico radica en los años 1850 con la primera compañía manufacturera de instrumentos de dibujo en los EE.UU. En 1876 se inicia el procedimiento de copias heliográficas, descartando así las técnicas de dibujo en líneas finas mediante el uso de sombra o matices y el empleo de aguadas en acuarela.
Hasta aproximadamente el inicio del siglo XX, los dibujos se hacían generalmente en lo que se llama proyección de primer ángulo en la cual la vista de la planta se colocaba bajo la vista frontal, la vista del costado izquierdo, se colocaba a la derecha de la vista frontal. Etc. Para entonces EE.UU. La práctica gradualmente, se definió a favor de la actual proyección de tercer ángulo en la cual vistas o elevaciones quedan situada en lo que consideremos como posibles lógicas o naturales.
Existen varias técnicas de dibujo como son:
• Técnica a lápiz • Técnica a tinta • Técnica de plumón • Técnica de gonache • Técnica de acuarela • Técnica de color • Técnica de aerógrafo
Mejor respuesta - elegida por los votantes
1.- Lineas2.- Colores3.- Formas
4.- Volumen5.- Pintura6.- Detalles7.- Medida8.- Tono9.- Intensidad10.- Características11.- Modalidad12.- Diseño13.- Contraste14.- Nitidez15.- Arte16.- Emoción17.- Expresividad18.- Talento19.- Curvas20.- Pincel21.- Papel22.- Acuarelas23.- Imagen24.- Figura25.- Gráficos26.- Ideas27.- Símbolos28.- Boceto29.- Sombreado30.- Proporciones31.- Pigmentos
Fuente(s):Saludos. Fuente: Yo. =)
ESTADISTICADefiniciones de estadística.
Estadística, rama de las matemáticas que se ocupa de reunir, organizar y analizar datos numéricos y que ayuda a resolver problemas como el diseño de experimentos y la toma de decisiones.
La estadística es un lenguaje que permite comunicar información basados en datos cuantitativos.
La estadística es un potente auxiliar de muchas ciencias y actividades humanas. Es una herramienta indispensable para la toma de decisiones. También es empleada para mostrare los aspectos cuantitativos de una situación.
Historia de la estadística a nivel mundial.
Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o cosas.
Hacia el año 3000 a. C. los babilonios usaban pequeñas tablillas de arcilla para recopilar datos sobre la producción agrícola y sobre los géneros vendidos o cambiados mediante trueque.
En el siglo XXXI a. C., mucho antes de construir las pirámides, los egipcios analizaban los datos de la población y la renta del país. Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías.
En China existían registros numéricos similares con anterioridad al año 2000 a. C. Los griegos clásicos realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.
El Imperio romano fue el primer gobierno que recopiló una gran cantidad de datos sobre la población, superficie y renta de todos los territorios bajo su control.
Durante la edad media sólo se realizaron algunos censos exhaustivos en Europa. Los reyes caloringios Pipino el Breve y Carlomagno ordenaron hacer estudios minuciosos de las propiedades de la Iglesia en los años 758 y 762 respectivamente.
Después de la conquista normanda de Inglaterra en 1066, el rey Guillermo I de Inglaterra encargó la realización de un censo. La información obtenida con este censo, llevado a cabo en 1086, se recoge en el Domesday Book.
El registro de nacimientos y defunciones comenzó en Inglaterra a principios del siglo XVI, y en 1662 apareció el primer estudio estadístico notable de población, titulado Observations on the London Bills of Mortality Comentarios sobre las partidas de defunción en Londres.
Un estudio similar sobre la tasa de mortalidad en la ciudad de Breslau, en Alemania, realizado en 1691, fue utilizado por el astrónomo inglés Edmund Halley como base para la primera tabla de mortalidad.
En el siglo XIX, con la generalización del método científico para estudiar todos los fenómenos de las ciencias naturales y sociales, los investigadores aceptaron la necesidad de reducir la información a valores numéricos para evitar la ambigüedad de las descripciones verbales.
En nuestros días, la estadística se ha convertido en un método efectivo para describir con exactitud los valores de datos económicos, políticos, sociales, psicológicos, biológicos o físicos, y sirve como herramienta para relacionar y analizar dichos datos.
El trabajo del experto estadístico no consiste ya sólo en reunir y tabular los datos, sino sobre todo en el proceso de “interpretación” de esa información. El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística. Muchos conjuntos de datos se pueden aproximar, con gran exactitud, utilizando determinadas distribuciones probabilísticas; los resultados de éstas se pueden utilizar para analizar datos estadísticos.
La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.
Aplicación de estadística en contabilidad.
En contabilidad la estadística es muy importante y se aplica para seleccionar muestra, cuando se pretende hacer una auditoria; también para medir variación de costos de producción.
Diferencia entre estadística y estadísticas.
La estadística sin “s” es la que se refiere a la asignatura a lo que estudiamos actualmente, la ciencia en si; mientras que la estadísticas con “s” se refiere a los datos ya estudiados y organizados.
Diferencia entre estadística descriptiva y estadística inferencial.
La estadística descriptiva analiza, estudia y describe a la totalidad de individuos de una población. Su finalidad es obtener información, analizarla, elaborarla y simplificarla lo necesario para que pueda ser interpretada cómoda y rápidamente y, por tanto, pueda utilizarse eficazmente para el fin que se desee.
La estadística inferencial, sin embargo, trabaja con muestras, subconjuntos formados por algunos individuos de la población. A partir del estudio de la muestra se pretende inferir aspectos relevantes de toda la población. Cómo se selecciona la muestra, cómo se realiza la inferencia, y qué grado de confianza se puede tener en ella son aspectos fundamentales de la estadística inferencial, para cuyo estudio se requiere un alto nivel de conocimientos de estadística, probabilidad y matemáticas.
Concepto de población y muestra estadística.
Se llama población al conjunto de todos los elementos cuyo conocimiento interesa. Cada uno de esos elementos es un individuo. Si se está estudiando el resultado de ciertos experimentos químicos, cada uno de esos experimentos será un individuo estadístico y el conjunto de todos los posibles experimentos en esas condiciones será la población.
Muestra estadística es una porción de la población que se selecciona para fines de análisis. La muestra siempre debe ser representativa de la población de la cual se extrae, o sea, que cada uno de los elementos de la población tenga la misma oportunidad de ser seleccionado en la muestra.
EstadísticaPara análisis, datos y gráficas sobre Wikipedia, véase Wikipedia:Estadísticas.
La estadística es una ciencia formal que estudia la recolección, análisis e interpretación de datos de
una muestra representativa, ya sea para ayudar en la toma de decisiones o para explicar condiciones
regulares o irregulares de algún fenómeno o estudio aplicado, de ocurrencia en
forma aleatoria o condicional.
Sin embargo, la estadística es más que eso, es decir, es la herramienta fundamental que permite llevar
a cabo el proceso relacionado con la investigación científica.
Distribución normal
Es transversal a una amplia variedad de disciplinas, desde la física hasta las ciencias sociales, desde
las ciencias de la saludhasta el control de calidad.
Se usa para la toma de decisiones en áreas de negocios o instituciones gubernamentales.
La estadística se divide en dos grandes áreas:
La estadística descriptiva, se dedica a la descripción, visualización y resumen de datos originados a
partir de los fenómenos de estudio. Los datos pueden ser resumidos numérica o gráficamente.
Ejemplos básicos de parámetros estadísticos son: lamedia y la desviación estándar. Algunos
ejemplos gráficos son: histograma, pirámide poblacional, gráfico circular, entre otros.
La estadística inferencial, se dedica a la generación de los modelos, inferencias y predicciones
asociadas a los fenómenos en cuestión teniendo en cuenta la aleatoriedad de las observaciones.
Se usa para modelar patrones en los datos y extraer inferencias acerca de la población bajo
estudio. Estas inferencias pueden tomar la forma de respuestas a preguntas si/no (prueba de
hipótesis), estimaciones de unas características numéricas (estimación), pronósticos de futuras
observaciones, descripciones de asociación (correlación) o modelamiento de relaciones entre
variables (análisis de regresión). Otras técnicas de modelamiento incluyen anova, series de
tiempo y minería de datos.
Ambas ramas (descriptiva e inferencial) comprenden la estadística aplicada.
Hay también una disciplina llamada estadística matemática, la que se refiere a las bases teóricas de la
materia.
La palabra «estadísticas» también se refiere al resultado de aplicar un algoritmo estadístico a un
conjunto de datos, como en estadísticas económicas, estadísticas criminales, entre otros.
Índice
[ocultar]
1 Historia
o 1.1 Origen
o 1.2 Orígenes en probabilidad
o 1.3 Estado actual
2 Métodos estadísticos
o 2.1 Estudios experimentales y observacionales
o 2.2 Niveles de medición
o 2.3 Técnicas de análisis estadístico
3 Disciplinas especializadas
4 Computación estadística
5 Críticas a la estadística
6 Estadísticos famosos
7 Notas
8 Bibliografía
9 Enlaces externos
Historia[editar · editar código]
Origen[editar · editar código]
El término alemán Statistik, introducido originalmente por Gottfried Achenwall en 1749, se refería al
análisis de datos del Estado, es decir, la "ciencia del Estado" (o más bien, de la ciudad-estado).
También se llamó aritmética política de acuerdo con la traducción literal del inglés. No fue hasta el siglo
XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto
fue introducido por el militar británico Sir John Sinclair (1754-1835).
En su origen, por tanto, la Estadística estuvo asociada a los Estados o ciudades libres, para ser
utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos
acerca de estados y localidades continúa ampliamente a través de los servicios de estadística
nacionales e internacionales. En particular, los censos comenzaron a suministrar información regular
acerca de la población de cada país. Así pues, los datos estadísticos se referían originalmente a los
datos demográficos de una ciudad o estado determinados. Y es por ello que en la clasificación decimal
de Melvil Dewey, empleada en las bibliotecas, todas las obras sobre estadística se encuentran ubicadas
al lado de las obras de o sobre la demografía.
Ya se utilizaban representaciones gráficas y otras medidas en pieles, rocas, palos de madera y paredes
de cuevas para controlar el número de personas, animales o ciertas mercancías. Hacia el
año 3000 a. C. los babilonios usaban ya pequeños envases moldeados de arcilla para recopilar datos
sobre la producción agrícola y de los géneros vendidos o cambiados. Los egipcios analizaban los datos
de la población y la renta del país mucho antes de construir las pirámides en el siglo XI a. C. Los libros
bíblicos de Números y Crónicas incluyen en algunas partes trabajos de estadística. El primero cona
están ubicadas al lado de las demográficas. La estadística tiene dos censos de la población de la Tierra
de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían
registros numéricos similares con anterioridad al año 2000 a. C. Los antiguos griegos realizaban censos
cuya información se utilizaba hacia el594 a. C. para cobrar impuestos.
Orígenes en probabilidad[editar · editar código]
Los métodos estadístico-matemáticos emergieron desde la teoría de probabilidad, la cual data desde la
correspondencia entre Pascal y Pierre de Fermat (1654). Christian Huygens (1657) da el primer
tratamiento científico que se conoce a la materia. El Ars coniectandi (póstumo, 1713) de Jakob Bernoulli
y la Doctrina de posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las
matemáticas.1 En la era moderna, el trabajo de Kolmogórov ha sido un pilar en la formulación del
modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.
La teoría de errores se puede remontar a la Ópera miscellánea (póstuma, 1722) de Roger Cotes y al
trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la
teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye
el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites
asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una
curva de probabilidad.
Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de
observaciones desde los principios de la teoría de probabilidades. Laplace representó la Ley de
probabilidades de errores mediante una curva y dedujo una fórmula para la media de tres
observaciones. También, en 1871, obtiene la fórmula para la ley de facilidad del error (término
introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el
principio del máximo producto de las probabilidades de un sistema de errores concurrentes.
Fotografía de Ceres por el telescopio espacial Hubble. La posición fue estimada por Gauss mediante el método de
mínimos cuadrados.
El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue
publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich
Gauss (1809). Gauss había usado el método en su famosa predicción de la localización delplaneta
enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss
(1823), James Ivory (1825, 1826), Hagen (1837),Friedrich Bessel (1838), W.F. Donkin (1844,
1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis
(1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de
Peters para , el probable error de una observación simple es bien conocido.
El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard
Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la presentación de la teoría. Adolphe Quetelet (1796-1874), fue otro
importante fundador de la estadística y quien introdujo la noción del «hombre promedio» (l’homme
moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de
criminalidad, tasas de matrimonio o tasas de suicidios.
Estado actual[editar · editar código]
Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud
pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa
de desempleo, econometría, etc.) necesitó de avances sustanciales en las prácticas estadísticas.
Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al Estado o al
gobierno. Personas y organizaciones usan la estadística para entender datos y tomar decisiones en
ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es entendida
generalmente no como un sub-área de las matemáticas sino como una ciencia diferente «aliada».
Muchas universidades tienen departamentos académicos de matemáticas y estadística separadamente.
La estadística se enseña en departamentos tan diversos como psicología, educación y salud pública.
Regresión lineal - Gráficos de dispersiónen estadística.
Al aplicar la estadística a un problema científico, industrial o social, se comienza con un proceso
o población a ser estudiado. Esta puede ser la población de un país, de granos cristalizados en una roca
o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser
un proceso observado en varios ascos instantes y los datos recogidos de esta manera constituyen
una serie de tiempo.
Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un
subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos
de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual
sigue dos propósitos: descripción e inferencia.
El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de
datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración)
tienden a variar conjuntamente, como si hubiera una conexión entre ellas. Por ejemplo, un estudio del
ingreso anual y la edad de muerte podría resultar en que personas pobres tienden a tener vidas más
cortas que personas de mayor ingreso. Las dos variables se dicen que están correlacionadas. Sin
embargo, no se puede inferir inmediatamente la existencia de una relación de causalidad entre las dos
variables. El fenómeno correlacionado podría ser la causa de una tercera, previamente no considerada,
llamada variable confusora.
Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden
ser extendidas a la población completa. Un problema mayor es el de determinar que tan representativa
es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la
muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos
robustos como primera medida, ver diseño experimental.
El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad.
La estadística matemática (también llamada teoría estadística) es la rama de lasmatemáticas
aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas
de la estadística.
El uso de cualquier método estadístico es válido solo cuando el sistema o población bajo consideración
satisface los supuestos matemáticos del método. El mal uso de la estadística puede producir serios
errores en la descripción e interpretación, afectando las políticas sociales, la práctica médica y la calidad
de estructuras tales como puentes y plantas de reacción nuclear.
Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente
interpretados por un inexperto. Por ejemplo, el significado estadístico de una tendencia en los datos, que
mide el grado al cual la tendencia puede ser causada por una variación aleatoria en la muestra, puede
no estar de acuerdo con el sentido intuitivo. El conjunto de habilidades estadísticas básicas (y el
escepticismo) que una persona necesita para manejar información en el día a día se refiere como
«cultura estadística».
Métodos estadísticos[editar · editar código]
Estudios experimentales y observacionales[editar · editar código]
Un objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en
particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores
o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos
de estudios estadísticos para estudiar causalidad: estudios experimentales y observacionales. En
ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el
comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma
en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.
Niveles de medición[editar · editar código]
Hay cuatro tipos de mediciones o escalas de medición en estadística. Los cuatro tipos de niveles de
medición (nominal, ordinal, intervalo y razón) tienen diferentes grados de uso en
lainvestigación estadística. Las medidas de razón, en donde un valor cero y distancias entre diferentes
mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados
para analizar los datos. Las medidas de intervalo tienen distancias interpretables entre mediciones, pero
un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en
grados Celsius). Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero
un orden interpretable para sus valores. Las medidas nominales no tienen ningún rango interpretable
entre sus valores.
La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar
objetos en clases. La escala ordinal, por su parte, recurre a la propiedad de «orden» de los números. La
escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es
importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en
ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las
características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre
todos los elementos de la escala. La escala de coeficientes o Razones es el nivel de medida más
elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio
como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos
midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el
efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado
de atributo presente en el objeto de estudio.
Técnicas de análisis estadístico[editar · editar código]
Algunos tests y procedimientos para investigación de observaciones bien conocidos son:
Prueba t de Student
Prueba de χ²
Análisis de varianza (ANOVA)
U de Mann-Whitney
Análisis de regresión
Correlación
Iconografía de las correlaciones
Frecuencia estadística
Análisis de frecuencia acumulada
Prueba de la diferencia menos significante de Fisher
Coeficiente de correlación de Pearson
Coeficiente de correlación de Spearman
Análisis factorial exploratorio
Análisis factorial confirmatorio
Gráfica estadística
Disciplinas especializadas[editar · editar código]
Algunos campos de investigación usan la estadística tan extensamente que tienen terminología
especializada. Estas disciplinas incluyen:
Ciencias actuariales
Física estadística
Estadística industrial
Estadística Espacial
Matemáticas Estadística
Estadística en Medicina
Estadística en Medicina Veterinaria y Zootecnia
Estadística en Nutrición
Estadística en Agronomía
Estadística en Planificación
Estadística en Investigación
Estadística en Restauración de Obras
Estadística en Literatura
Estadística en Astronomía
Estadística en la Antropología (Antropometría)
Estadística en Historia
Estadística militar
Geoestadística
Bioestadística
Estadísticas de Negocios
Estadística Computacional
Estadística en las Ciencias de la Salud
Investigación de Operaciones
Estadísticas de Consultoría
Estadística de la educación, la enseñanza, y la formación
Estadística en la comercialización o mercadotecnia
Cienciometría
Estadística del Medio Ambiente
Estadística en Epidemiología
Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)
Econometría (Estadística económica)
Estadística en Ingeniería
Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial
Demografía
Estadística en psicología (Psicometría)
Calidad y productividad
Estadísticas sociales (para todas las ciencias sociales)
Cultura estadística
Encuestas por Muestreo
Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería
química)
Confiabilidad estadística
Procesamiento de imágenes
Estadísticas Deportivas
La estadística es una herramienta básica en negocios y producción. Es usada para entender la
variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o
SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta
clave, y probablemente la única herramienta disponible.
Computación estadística[editar · editar código]
El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del
siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos
estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores
junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no
lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales
como modelos lineales generalizados y modelos multinivel.
El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos
intensivos computacionalmente basados en remuestreo, tales como tests de permutación y
de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos más
accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un
nuevo énfasis en estadísticas «experimentales» y «empíricas». Un gran número de paquetes
estadísticos está ahora disponible para los investigadores. Los sistemas dinámicos y teoría del caos,
desde hace una década, empezaron a interesar en la comunidad hispana, pues en la anglosajona de
Estados Unidos estaba ya establecida la «conducta caótica en sistemas dinámicos no lineales» con 350
libros para 1997 y empezaban algunos trabajos en los campos de las ciencias sociales y en aplicaciones
de la física. También se estaba contemplando su uso en analítica.
Véase también: Computación Científica
Críticas a la estadística[editar · editar código]
Hay una percepción general de que el conocimiento estadístico es intencionado y frecuentemente mal
usado, encontrando maneras de interpretar los datos que sean favorables al presentador. Un dicho
famoso, al parecer de Benjamin Disraeli,2 es: «Hay tres tipos de mentiras: mentiras pequeñas, mentiras
grandes y estadísticas». El popular libro How to lie with statistics (Cómo mentir con las estadísticas en la
edición española) de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en
gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados
pueden ser manipulados; por ejemplo, mediante la eliminación selectiva de valores atípicos (outliers).
Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador (Darrel
Huff3 ). Lawrence Lowell (decano de la Universidad de Harvard) escribió en 1909 que las estadísticas,
«como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes».
Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la
veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que «hacer X reduce la
presión sanguínea», seguido por un estudio que dice que «hacer X no afecta la presión sanguínea»,
seguido por otro que dice que «hacer X incrementa la presión sanguínea». A menudo los estudios se
hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados
maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no
notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y
la desconfianza del público comienza a crecer.
Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis,
ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser
'favorecida' (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en
estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia
práctica.
Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula.
En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de
nuevos medicamentos por la Food and Drug Administration, críticas de la aproximación de prueba
de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en
el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia
dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del
efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del
efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza
para un dado indicando simultáneamente la significancia estadística y el efecto de tamaño.
El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como
aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un
formato más detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología
estadística.
Otro tipo de aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin
embargo, también criticada.
El fuerte deseo de que los medicamentos buenos sean aprobados y que los medicamentos
peligrosos o de poco uso sean rechazados crea tensiones y conflictos (errores tipo I y II en el
lenguaje de pruebas de hipótesis).
Historia de estadística en GuatemalaLa única actividad estadística relevante en esa época fue el registro parroquial de nacimientos, matrimonios y defunciones , aunque los mismos se realizaban con propósito religioso más que estadístico. Es a partir de la Independencia en 1821, como consecuencia de las ideas liberales procedentes de Europa y la comunicación y el intercambio internacional, cuando aparecen en Guatemala los primeros intentos formales de realizar la actividad estadística.Fue el hondureño José Cecilio del Valle, quien figura como el primer intelectual preocupado por la estructuración de la estadística en el Istmo. Él motivó dicha organización, con la publicación de sus artículos “La estadística, plataforma del enaltecimiento social” publicados en el Semanario "EL AMIGO DE LA PATRIA". En sus escritos, José Cecilio del Valle hace referencia a los cálculos que en la actualidad se consideran como demográficos: superficie, densidad de población etc., además de la incipiente estadística fiscal de la época. El esfuerzo personal de Del Valle se materializó con la promulgación de la Ley sobre la manera de hacer estadística en las provincias unidas de Centro América, esta se reconoce como la “PRIMERA LEY DE ESTADÍSTICA”Fue publicada el 15 de noviembre de 1823 y en homenaje a este acontecimiento, desde los años 60’s, se celebra el 15 de noviembre de cada año el DÍA DEL ESTADÍSTICO. al amparo de esta ley se ordena por Decreto, el 19 de mayo de 1824, el levantamiento de los Censos de PoblaciónEl 13 de julio de 1825 se emite Acuerdo que designa a la primera Comisión Nacional de Estadística, integrada entre otros por el doctor Mariano Gálvez, Manuel José Pavón, Francisco Cáscara Acesta, y el Presbítero Isidro Menéndez. Posteriormente por renuncia del señor Pavón fue nombrado el Presbítero José Mariano Herrarte.La constitución de esta comisión marca el inicio de la recolección formal de información sobre hechos de interés para la gestión del Gobierno,...[continua]
FISICAABREVIATURAS PARA UNIDADES DE MEDIDA
La siguiente lista indica las abreviaturas o símbolos de uso internacional
que representan a las unidades de medida empleadas con mayor frecuencia en
los trabajos por las Revistas Científicas.
Abreviaturas
alternativas que
Abreviatura o no deben usarse
TERMINOLOGIA símbolo correcto (incorrectas)
cuentas por minuto cpm CPM
cuentas por segundo cps CPS
curie Ci
grados celsius ºC
desintegraciones por minutos dpm DPM
desintegraciones por segundo dps DPS
Equivalente Eq
gramo g gr
hora h hr
unidad internacional UI
kilógramo kg Kg
litro l Lt
metro m mt
molar M
mole mol
osmol osmol
revoluciones por minuto rpm RPM
segundo s seg
kilo-(prefijo) k
deci-(prefijo) d
centi-(prefijo) c
mili-(prefijo) m
micro-(prefijo) µ
nano-(prefijo) n
pico-(prefijo) p
promedio (término estadístico) x
no significativo NS
número de observaciones (estadístico) n Nº
probabilidad (estadístico) p P
Nótese que a ninguna abreviatura o símbolo se le agrega "s" para indicar plural.
Una lista más completa de abreviaturas o símbolos de uso común en biología y
medicina, aparece publicada en Annals of Internal Medicine 1979; 90: 98-9.
Factor de conversiónEl factor de conversión o de unidad es una fracción en la que el numerador y el denominador son
cantidades iguales expresadas en unidades de medida distintas, de tal manera, que esta fracción
equivale a la unidad. Método efectivo para cambio de unidades y resolución de ejercicios sencillos
dejando de utilizar la regla de tres. Cada factor de conversión se construye con una equivalencia
(igualdad entre dos cantidades).
Ejemplo 1: pasar 15 pulgadas a centímetros (equivalencia: 1 pulgada = 2,54 cm )
el factor unitario : se construye a partir de la equivalencia dada.
Ejemplo 2: pasar 25 metros por segundo a kilómetros por hora (equivalencias: 1 kilómetro
= 1000 metros, 1 hora = 3600 segundos)
Ejemplo 3: obtener la masa de 10 litros de mercurio (densidad del mercurio: 13,6
kilogramos por decímetro cúbico)
Nótese que un litro es lo mismo que un decímetro cúbico.
En cada una de las fracciones entre paréntesis se ha empleado la misma medida en unidades
distintas de forma que al final sólo quedaba la unidad que se pedía
Factores de Conversion del TiempoMuchas veces en algunos problemas, ya sea en el área de la química y en la física, se nos presenta el tiempo expresado en unidades completamente diferentes a las que se nos están pidiendo, y en estos casos a fin de que podamos convertirlas a la unidad pedida utilizamos los muy conocidos factores de conversión. Aquí les presentamos algunas de las principales equivalencias en las diferentes unidades que existen para medir el tiempo.
1 año = 365 dias 365 dias = 8760h
365 dias = 3,1536*10e7s 1 dia = 24h 1 dia = 84600s 1 h = 60 min 1 h = 3600s 1 min = 60s
Estos factores de conversion se utilizan como una fraccion dependiendo el orden de numerador y denominador en cual es la unidad que deseamos simplificar, esto debido a que si no colocamos el numerador y denominador en el lugar correcto, nos puede dar nuestro numero en una unidad elevada a una potencia cuadratica, aparte de que nuestro resultado estaria mal calculado. Esto se ha a fin de simplificar unidades, teniendo como numerador en una fraccion h, buscaremos un factor de conversion en el que podamos colocar las horas como denominador pero que nos lleve a la unidad que estamos necesitando y esto nos daria un resultado correctamente expresado desde el punto de vista dimensional.
FACTORES DE CONVERSIÓN PARA VOLUMEN
Describimos algunas Unidades de Conversión para Magnitud Volumen.
Ejemplo:
a) Un motor de un automóvil tiene un desplazamiento del émbolo de 1595 cm3 y un diámetro del cilindro de 83 Mm. Expresar éstas medidas en Pulgadas Cúbicas y en Pulgadas.
1. Éste problema es diferente, pero siempre empezamos dibujando el Diagrama como guía.
2. En éste caso primero convertimos los 1595 en Pulgadas Cúbicas.
3. Eliminamos las unidades y hacemos las respectivas conversiones para empezar a multiplicar. Dividimos respuestas (86,405,616 ÷ 1000,000).
4. Nos da una respuesta de 86.40 5. Ahora pasamos los 83 mm. a pulgadas.
FísicaEste artículo trata sobre la disciplina académica. Para el tratado de Aristóteles, véase Física
(Aristóteles).
Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes.
Sir Isaac Newton
La física (del lat. physica, y este del gr. τὰ φυσικά, neutro plural de φυσικός, "naturaleza") es
la ciencia natural que estudia las propiedades y el comportamiento de la energía y la materia (como
también cualquier cambio en ella que no altere la naturaleza de la misma), así como al tiempo,
el espacio y las interacciones de estos cuatro conceptos entre sí.
La física es una de las más antiguas disciplinas académicas, tal vez la más antigua, ya que
la astronomía es una de sus disciplinas. En los últimos dos milenios, la física fue considerada dentro de
lo que ahora llamamos filosofía, química, y ciertas ramas de la matemática y la biología, pero durante
la Revolución Científica en el siglo XVII surgió para convertirse en una ciencia moderna, única por
derecho propio. Sin embargo, en algunas esferas como la física matemática y la química cuántica, los
límites de la física siguen siendo difíciles de distinguir.
El área se orienta al desarrollo de competencias de una cultura científica, para comprender nuestro
mundo físico, viviente y lograr actuar en él tomando en cuenta su proceso cognitivo, su protagonismo en
el saber y hacer científico y tecnológico, como el conocer, teorizar, sistematizar y evaluar sus actos
dentro de la sociedad. De esta manera, contribuimos a la conservación y preservación de los recursos,
mediante la toma de conciencia y una participación efectiva y sostenida.
La física es significativa e influyente, no sólo debido a que los avances en la comprensión a menudo se
han traducido en nuevas tecnologías, sino también a que las nuevas ideas en la física resuenan con las
demás ciencias, las matemáticas y la filosofía.
La física no es sólo una ciencia teórica; es también una ciencia experimental. Como toda ciencia, busca
que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar
predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su
desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central,
ya que incluye dentro de su campo de estudio a la química, la biología y la electrónica, además de
explicar sus fenómenos.
La física, en su intento de describir los fenómenos naturales con exactitud y veracidad, ha llegado a
límites impensables: el conocimiento actual abarca la descripción de partículas
fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una
gran probabilidad lo que aconteció en los primeros instantes del nacimiento de nuestro universo, por
citar unos pocos campos.
Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos
como Demócrito, Eratóstenes, Aristarco, Epicuro o Aristóteles, y fue continuada después
porcientíficos como Galileo Galilei, Isaac Newton, Leonhard Euler, Joseph-Louis de Lagrange, Michael
Faraday, William Rowan Hamilton, Rudolf Clausius, James Clerk Maxwell, Hendrik Antoon
Lorentz, Albert Einstein, Niels Bohr, Max Planck, Werner Heisenberg, Paul Dirac, Richard
Feynman y Stephen Hawking, entre muchos otros.
Índice
[ocultar]
1 Historia de la física
2 Teorías centrales
o 2.1 Mecánica clásica
o 2.2 Electromagnetismo
o 2.3 Relatividad
o 2.4 Termodinámica y mecánica estadística
o 2.5 Mecánica cuántica
3 Conceptos físicos fundamentales
4 Áreas de investigación
o 4.1 Física teórica
o 4.2 Materia condensada
o 4.3 Física atómica y molecular
o 4.4 Física de partículas o de altas energías y Física nuclear
o 4.5 Astrofísica
o 4.6 Biofísica
o 4.7 Resumen de las disciplinas físicas
5 Principales magnitudes físicas
6 Véase también
7 Referencias
8 Enlaces externos
Historia de la física
Artículo principal: Historia de la física
Dios no juega a los dados con el Universo.
Albert Einstein.
Einstein, deje de decirle a Dios lo que tiene que hacer con sus dados.
Niels Bohr.
Se conoce que la mayoría de las civilizaciones de la antigüedad trataron desde un principio de explicar
el funcionamiento de su entorno; miraban las estrellas y pensaban cómo ellas podían regir su mundo.
Esto llevó a muchas interpretaciones de carácter más filosófico que físico; no en vano en esos
momentos a la física se le llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo
primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de
buscar algún tipo de explicación a los fenómenos que les rodeaban.1 A pesar de que las teorías
descriptivas del universo que dejaron estos pensadores eran erradas, estas tuvieron validez por mucho
tiempo, casi dos mil años, en parte por la aceptación de la Iglesia católica de varios de sus preceptos,
como la teoría geocéntrica o las tesis de Aristóteles.2
Esta etapa, denominada oscurantismo en la ciencia, termina cuando Nicolás Copérnico, considerado
padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium
Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al
cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de
la Universidad de Pisa a finales del siglo XVIcambiaría la historia de la ciencia, empleando por primera
vez experimentos para comprobar sus aseveraciones: Galileo Galilei. Mediante el uso deltelescopio para
observar el firmamento y sus trabajos en planos inclinados, Galileo empleó por primera vez el método
científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se les unieron grandes
contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal yChristian Huygens.2
Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo
trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la Tierra en lo que él
llamó gravedad. En 1687, Isaac Newton, en su obra Philosophiae Naturalis Principia Mathematica,
formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal, que
transformaron por completo el mundo físico; todos los fenómenos podían ser vistos de una manera
mecánica.3
El trabajo de Newton en este campo perdura hasta la actualidad; todos los fenómenos macroscópicos
pueden ser descritos de acuerdo a sus tres leyes. Por eso durante el resto de ese siglo y el
posterior siglo XVIII todas las investigaciones se basaron en sus ideas. De ahí que se desarrollaron
otras disciplinas, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los
conocidos trabajos de Daniel Bernoulli, Robert Boyley Robert Hooke, entre otros, pertenecen a esta
época.4
En el siglo XIX se producen avances fundamentales en la electricidad y el magnetismo, principalmente
de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm, que
culminaron en el trabajo de James Clerk Maxwell de 1855, que logró la unificación de ambas ramas en
el llamado electromagnetismo. Además, se producen los primeros descubrimientos sobre radiactividad y
el descubrimiento del electrón por parte deJoseph John Thomson en 1897.5
Durante el siglo XX, la física se desarrolló plenamente. En 1904, Hantarō Nagaoka había propuesto el
primer modelo del átomo,6 el cual fue confirmado en parte por Ernest Rutherford en 1911, aunque
ambos planteamientos serían después sustituidos por el modelo atómico de Bohr, de 1913. En 1905,
Einstein formuló la teoría de la relatividad especial, la cual coincide con las leyes de Newton cuando los
fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz.
En 1915 extendió la teoría de la relatividad especial, formulando la teoría de la relatividad general, la
cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max
Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la teoría cuántica, a fin de explicar resultados
experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la
existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de
partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac,
formularon la mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las
herramientas teóricas para la Física de la materia condensada.7
Posteriormente se formuló la teoría cuántica de campos, para extender la mecánica cuántica de acuerdo
con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los40, gracias al
trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, que formularon la teoría
de la electrodinámica cuántica. Esta teoría formó la base para el desarrollo de la física de partículas.
En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se
completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas
previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.7
Los intentos de unificar las cuatro interacciones fundamentales han llevado a los físicos a nuevos
campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que
son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando
se las quiere ver desde un mismo punto de vista. Por eso se han formulado nuevas teorías, como
la supergravedad o la teoría de cuerdas, donde se centran las investigaciones a inicios del siglo XXI.
Teorías centrales
La física, en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las
cuales podrían agruparse en cinco teorías principales: la mecánica clásica, que describe el movimiento
macroscópico; el electromagnetismo, que describe los fenómenos electromagnéticos como la luz;
la relatividad, formulada por Einstein, que describe el espacio-tiempo y lainteracción gravitatoria;
la termodinámica, que describe los fenómenos moleculares y de intercambio de calor; y, finalmente,
la mecánica cuántica, que describe el comportamiento del mundo atómico.
Mecánica clásica
Artículo principal: Mecánica clásica
Giróscopo, un dispositivo mecánico.
Se conoce como mecánica clásica a la descripción del movimiento de cuerpos macroscópicos a
velocidades muy pequeñas en comparación con la velocidad de la luz. Existen dos tipos de
formulaciones de esta mecánica, conocidas como mecánica newtoniana y mecánica analítica.
La mecánica newtoniana, como su nombre indica, lleva intrínsecos los preceptos de Newton. A partir de
las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral, se llega a una
muy exacta aproximación de los fenómenos físicos. Esta formulación también es conocida como
mecánica vectorial, y es debido a que a varias magnitudes se les debe definir su vector en un sistema
de referencia inercial privilegiado.8
La mecánica analítica es una formulación matemática abstracta sobre la mecánica; nos permite
desligarnos de esos sistemas de referenciaprivilegiados y tener conceptos más generales al momento
de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones
equivalentes: la llamada mecánica lagrangiana es una reformulación de la mecánica realizada
por Joseph Louis Lagrange que se basa en la ahora llamada ecuación de Euler-Lagrange (ecuaciones
diferenciales de segundo orden) y el principio de mínima acción; la otra, llamada mecánica hamiltoniana,
es una reformulación más teórica basada en una funcional llamada hamiltoniano realizada por William
Hamilton. En última instancia las dos son equivalentes.8
En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la
naturaleza realiza de forma espontánea la mínima acción y la concepción de un universo determinado.
Electromagnetismo
Artículo principal: Electromagnetismo
Véase también: Óptica
Magnetósfera terrestre.
El electromagnetismo describe la interacción de partículas cargadas con campos
eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones
entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento
y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en
las ecuaciones de Maxwell.
La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se
describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede
analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera
que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la
magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o
repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van
desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de
los tubos electrónicos.
La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a
los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo
magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación
electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como
el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como
electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de
Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más
reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la
interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg y Wolfgang
Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica es
inherentemente relativista y da unas correcciones que se introducen en la descripción de los
movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se
aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos
funcionando a altas tensiones y corrientes.
El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es
un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la
gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de
electromagnetismo.
Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como
las microondas, antenas, máquinas eléctricas, comunicaciones
por satélite,bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la
compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar,
y la observación remota. Los dispositivos electromagnéticos
incluyen transformadores, relés, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías
de onda, fibras ópticas yláseres.
Espectro electromagnético.
Relatividad
Artículo principal: Teoría de la relatividad
Dibujo artístico acerca de una prueba realizada con alta precisión por la sondaCassini al enviar señales a la tierra y
al describir la trayectoria predicha.
La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, y se
divide en dos cuerpos de investigación: larelatividad especial y la relatividad general.
En la teoría de la relatividad especial, Einstein, Lorentz y Minkowski, entre otros, unificaron los
conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo.
La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de
Newton quedó relegado y conceptos como la invariabilidad en la velocidad de la luz, la dilatación del
tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos.
Además, con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos
los sistemas de referencia inerciales; como consecuencia matemática, se encuentra como límite
superior de velocidad a la de la luz y se elimina la causalidad determinista que tenía la física hasta
entonces. Hay que indicar que las leyes del movimiento de Newton son un caso particular de esta teoría
donde la masa, al viajar a velocidades muy pequeñas, no experimenta variación alguna en longitud ni se
transforma en energía, y al tiempo se le puede considerar absoluto.
Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la
geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-
tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos
los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción
del movimiento de un partícula por líneasgeodésicas. La relatividad general no es la única teoría que
describe la atracción gravitatoria, pero es la que más datos relevantes comprobables ha encontrado.
Anteriormente, a la interacción gravitatoria se la describía matemáticamente por medio de una
distribución de masas, pero en esta teoría no solo la masa percibe esta interacción, sino también
la energía, mediante la curvatura del espacio-tiempo, y es por eso que se necesita otro lenguaje
matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz
por acción de la gravedad y la desviación en laórbita de Mercurio, son perfectamente predichos por esta
formulación. La relatividad general también abrió otro campo de investigación en la física, conocido
como cosmología, y es ampliamente utilizado en la astrofísica.9
Termodinámica y mecánica estadística
Artículos principales: Termodinámica y Mecánica Estadística.
Transferencia de calor por convección.
La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía, y
cómo se puede realizar un trabajo con ella. En esta área se describe cómo la materia en cualquiera de
sus fases (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la
materia, se estudia como ésta reacciona a cambios en su volumen, presión y temperatura, entre otras
magnitudes. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley
cero), el principio de conservación de la energía (primera ley), el aumento temporal de
la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).10
Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Esta rama
estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero, al contrario a la
anterior, desde un punto de vista molecular. La materia, como se conoce, está compuesta por
moléculas, y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas.
Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el
lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de
este conjunto molecular microscópico.11
Mecánica cuántica
Artículo principal: Mecánica cuántica
Esquema de una función de onda monoelectrónica u orbital en tres dimensiones.
La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos, y sus
interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la
observación de que todas las formas de energía se liberan en unidades discretas o paquetes
llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente
cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales,
entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la
mecánica cuántica que las leyes de Newton y la conservación de la energía hacen en la mecánica
clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de
onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los
eventos o resultados.
En teorías anteriores de la física clásica, la energía era tratada únicamente como un fenómeno continuo,
en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de
manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y
minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta
como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas
propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una
región determinada, sino más bien extendidas en cierta medida. La luz u otra radiación emitida o
absorbida por un átomo sólo tiene ciertasfrecuencias (o longitudes de onda), como puede verse en
la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica
demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es
el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía
permitidos. Cuando un electrón pasa de un nivel permitido a otro, una cantidad de energía es emitida o
absorbida, cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles.
Esquema de un orbital en dos dimensiones.
El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de
Broglie propuso que, al igual que las ondas de luz presentan propiedades de partículas, como ocurre en
el efecto fotoeléctrico, las partículas, a su vez, también presentan propiedades ondulatorias. Dos
formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie.
En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática,
la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto
dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de
las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la
teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es elprincipio de
incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de
ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico
de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser
abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más
grandes físicos de la época.
La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928,
lo que, además, predijo la existencia deantipartículas. Otros desarrollos de la teoría incluyen la
estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en
otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica,
interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su
generalización, la teoría cuántica de campos y la electrónica cuántica.
El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica
cuántica es fundamental para la mayoría de las áreas de la investigación actual.
Conceptos físicos fundamentales
Artículo principal: Anexo:Conceptos físicos fundamentales
En general un concepto físico es interpretable sólo en virtud de la teoría física donde aparece. Así la
descripción clásica de un gas o un fluido recurre al concepto de medio continuo aún cuando en realidad
la materia está formada por átomos discretos, eso no impide que el concepto de medio continuo en el
contexto de aplicación de la mecánica de fluidos o la mecánica de sólidos deformables no sea útil.
Igualmente la mecánica newtoniana trata el campo gravitatorio como un campo de fuerzas, pero por otra
parte la teoría de la relatividad general considera que no existen genuinamente fuerzas gravitatorias sino
que los fenómenos gravitatorios son una manifestación de la curvatura del espacio-tiempo.
Si se examina una lista larga de conceptos físicos rápidamente se aprecia que muchos de ellos sólo
tienen sentido o son definibles con todo rigor en el contexto de una teoría concreta y por tanto no son
conceptos fundamentales que deban aparecer en cualquier descripción física del universo. Sin embargo,
un conjunto reducido de conceptos físicos aparecen tanto en la descripción de la física clásica, como en
la descripción de la física relativista y la de la mecánica cuántica. Estos conceptos físicos que parecen
necesarios en cualquier teoría física suficientemente amplia son los llamados conceptos físicos
fundamentales, una lista no exhaustiva de los mismos podría ser:
Conceptos fundamentales de la física
Magnitudes físicas · Energía · Energía cinética · Momentum · Momentum angular · Masa · Carga eléctrica · Entropía
Tipos de entidades físicas: Materia · partícula · campo · onda · espacio-tiempo · observador · Espacio · Tiempo · Posición
Construcciones teóricas fundamentales: Lagrangiano · Acción · Ecuaciones de Euler-Lagrange · Ecuación de movimiento · Estado físico · Ley de conservación
Áreas de investigación
Física teórica
Artículo principal: Física teórica
Esquema de la teoría de cuerdas.
La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado
lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los
experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los
resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos
están relacionados íntimamente. El progreso en física a menudo ocurre cuando un experimento
encuentra un resultado que no se puede explicar con las teorías actuales, por lo que hay que buscar un
nuevo enfoque conceptual para resolver el problema.
La física teórica está muy relacionada con las matemáticas, ya que ésta suministra el lenguaje usado en
el desarrollo de las teorías físicas. Los teóricos confían en el cálculo diferencial e integral, el análisis
numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos
de física computacional y matemática son áreas de investigación activas.
Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales
o minúsculas cuerdas que vibran o la teoría del todo, y a partir de ahí, realizar hipótesis físicas.
Materia condensada
Artículo principal: Materia condensada
Efecto Meissner, un ejemplo desuperconductividad.
La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia,
tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en
un gran número de átomos o moléculas que interactúan entre ellos, por lo que están "condensados", a
diferencia de estar libres sin interactuar. La física de la materia condensada busca hacer relaciones
entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes
a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.
Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los
átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos,
los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas,
la fase superconductora de los electrones de conducción de ciertos materiales, y las
fases ferromagnética y antiferromagnética de los espines en las redes atómicas.
La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra
a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de
estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física
de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967
su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia
condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y
laingeniería.
Física atómica y molecular
Artículos principales: Física atómica y Física molecular.
Estructura del diamante.
La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia
en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se
agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de
las escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto
clásicos como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y
macroscópicos.
La investigación actual en física atómica se centra en actividades tales como el enfriamiento y captura
de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la
hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la
precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías
como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y
dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que
interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos).
La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.
Física de partículas o de altas energías y Física nuclear
Artículo principal: Física de partículas
Ilustración de una desintegración alfa.
La física de partículas es la rama de la física que estudia los componentes elementales de la materia y
las interacciones entre ellos como si éstas fueran partículas. Es llamada también física de altas
energías, pues muchas de las partículas elementales no se encuentran en la naturaleza y es necesario
producirlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de
partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi
o Fermilab, en Estados Unidos, y el Centro Europeo para la Investigación Nuclear o CERN, en la
frontera entre Suiza y Francia. En estos laboratorios lo que se logra es obtener energías similares a las
que se cree existieron en el Big Bang, y así se intenta tener cada vez más pruebas del origen del
universo.12
En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos
grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y
los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica cómo
las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de
materia (fermiones). Así, elelectromagnetismo tiene su partícula llamada fotón, la interacción nuclear
fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula
hipotética llamada gravitón. Entre los fermiones hay más variedad; se encuentran dos tipos:
los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que
constituyen la materia (12 pares de partículas/anti-partículas) junto con tres familias de bosones de
gauge responsables de transportar las interacciones.13
La Física Nuclear es el campo de la Física que estudia los constituyentes del núcleo atómico y sus
interacciones. Las aplicaciones más conocidas de la física nuclear son la tecnología de generación de
energía y armamento, pero el campo ha dado lugar a aplicaciones en diversos campos, incluyendo
medicina nuclear e imágenes por resonancia magnética, ingeniería de implantación de iones en
materiales y datación por radiocarbono en geología y arqueología.
Astrofísica
Artículos principales: Astrofísica y Astronomía.
Ilustración de cómo podría verse unagujero negro supermasivo.
La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física
al estudio de los objetos que componen nuestro variado universo, tales
como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los
movimientos de los objetos, mientras que, grosso modo, la astrofísica busca explicar su origen, su
evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se suelen usar
indistintamente para referirse al estudio del universo.
Esta área, junto a la física de partículas, es una de las áreas más estudiadas y más apasionantes del
mundo contemporáneo de la física. Desde que el telescopio espacial Hubble nos brindó detallada
información de los más remotos confines del universo, los físicos pudieron tener una visión más objetiva
de lo que hasta ese momento eran solo teorías.14
Debido a que la astrofísica es un campo muy amplio, los astrofísicos aplican normalmente muchas
disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la
termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y
molecular. Además, la astrofísica está íntimamente vinculada con la cosmología, que es el área que
pretende describir el origen del universo.15
Biofísica
Artículo principal: Biofísica
La biofísica podría describir físicamente lo que ocurre en nuestro cerebro.
La biofísica es un área interdisciplinaria que estudia la biología aplicando los principios generales de la
física. Al aplicar el carácter probabilístico de lamecánica cuántica a sistemas biológicos, obtenemos
métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el
intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido
enriqueciendo de los conceptos físicos y no viceversa.16
Esta área está en constante crecimiento. Se estima que durante los inicios del siglo XXI cada vez la
confluencia de físicos, biólogos y químicos a los mismos laboratorios se incrementará. Los estudios
en neurociencia, por ejemplo, han aumentado y cada vez han tenido mayores frutos desde que se
comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de
las neuronas.17