viernes, 29 de mayo de 2009

QBASIC 5.

QBASIC, nombre originado por contracción del nombre del producto QuickBasic que traduce BASIC rápido, es una variante del lenguaje de programación BASIC. Intérprete de lenguaje BASIC. Su diseño fue basado en el anterior QuickBASIC 4.5, pero carecía de los elementos del compilador y enlazador de QuickBASIC. El código fuente es compilado en una forma intermedia desde el entorno de desarrollo integrado y luego esta forma intermedia es ejecutada (interpretada) a demanda. Fue creado con el objetivo de reemplazar a BASICA y GW-BASIC como lenguaje de programación para el usuario final y fue distribuido junto con MS-DOS 5.0 y versiones subsiguientes, incluyendo Windows 95.

Microsoft lo incluyó como opcional en los discos de instalación de Windows 95 y Windows 98, incluido en el paquete olddos.exe, pero dejó de distribuir QBASIC en siguientes versiones de Windows. Actualmente es distribuido únicamente a través del sitio web de Microsoft para usuarios con licencia de uso de MS-DOS. El entorno de desarrollo de QBASIC incluye varias características aún raras en entornos de desarrollo actuales.

QBASIC fue también utilizado para enseñar programación a principiantes.

VISUAL BASIC 5.

Visual Basic es un lenguaje de programación desarrollado por Alan Cooper para Microsoft. El lenguaje de programación es un dialecto de BASIC, con importantes añadidos. Su primera versión fue presentada en 1991 con la intención de simplificar la programación utilizando un ambiente de desarrollo completamente gráfico que facilitara la creación de interfaces gráficas y en cierta medida también la programación misma. Desde el 2001 Microsoft ha propuesto abandonar el desarrollo basado en la API Win32 y pasar a trabajar sobre un framework o marco común de librerías independiente de la version del sistema operativo, .NET Framework, a través de Visual Basic .NET (y otros lenguajes como C Sharp (C#) de fácil transición de código entre ellos) que presenta serias incompatibilidades con el código Visual Basic existente.

Visual Basic constituye un IDE (entorno de desarrollo integrado o en inglés Integrated Development Enviroment) que ha sido empaquetado como un programa de aplicación, es decir, consiste en un editor de código (programa donde se escribe el código fuente), un depurador (programa que corrige errores en el código fuente para que pueda ser bien compilado), un compilador (programa que traduce el código fuente a lenguaje de máquina), y un constructor de interfaz gráfica o GUI (es una forma de programar en la que no es necesario escribir el código para la parte gráfica del programa, sino que se puede hacer de forma visual).

Las versiones de Visual Basic para Windows son muy conocidas, pero existe una versión de Microsoft Visual Basic 1.0 para MS-DOS (ediciones Profesional y Estándar) menos difundida y que data de 1992. Era un entorno que, aunque en modo texto, incluía un diseñador de formularios en el que se podían arrastrar y soltar distintos controles.

La última versión sólo para 16 bits, la 3.0, incluía ya una detallada biblioteca de componentes para toda clase de usos. Durante la transición de Windows 3.11 a Windows 95, apareció la versión 4.0, que podía generar programas de 16 y 32 bits a partir de un mismo código fuente, a costa de un gran aumento en el tamaño de los archivos "runtime" necesarios. Además, se sustituyen los controles VBX por los nuevos OCX. Con la versión 5.0, se implementó por primera vez la posibilidad de compilar a código nativo, obteniendo una mejora de rendimiento considerable. Tanto esta como la posterior 6.0 soportaban características propias de los lenguajes orientados a objetos, aunque careciendo de algunos ítems importantes como la herencia, el polimorfismo y la sobrecarga. La versión 6.0 continua utilizándose masivamente.

Las versiones actuales de Visual Basic se basan en la plataforma .NET, que se desligan de las anteriores versiones.

MENCIONE Y EXPLIQUE LAS PARTES DEL ENTORNO DE VISUAL BASIC.

BARRA DE TITULO: muestra el nombre del proyecto y del formulario q se está diseñando actualmente.

BARRA DE MENUS: agrupa los menús despegables que contienes todas las operaciones que pueden llevarse a cabo con Visual Basic 6.0.

BARRA DE HERRAMIENTAS ESTANDAR: contienen los botones que se utilizan con mayor frecuencia cuando se trabaja con un proyecto. Simplifica la elección de opciones de los menús Archivo, Edición, Ver y Ejecutar; además, en el área derecha presenta la ubicación (coordenadas) y el tamaño del objeto seleccionado.

VENTANA DE FORMULARIO: es el área donde se diseña la interfaz gráfica, es decir, es donde se inserta electo gráficos, como botones, imágenes, casilla de verificación, cuadros de listas, etc.
Cuadro de herramientas: presenta todos los controles necesarios para diseñar una aplicación, como cuadros de texto, etiquetas, cuadros de listas, botones de comandos, etc.


VENTANA DE PROYECTO: muestra los elementos involucrados en el proyecto, como formularios, módulos, controles oxc, etc. Cada elemento puede seleccionarse en forma independiente para su edición.

VENTANA DE POSICION DE FORMULARIO: muestra la ubicación que tendrá el formulario en la pantalla, cuando ejecute la aplicación. Esta ubicación puede cambiarse si se hace clic con el botón izquierdo del mouse.

La Ventana propiedades muestra todas las propiedades del control actualmente seleccionado, en este caso muestra las propiedades del Form1, luego podemos ver que abajo dice "Form1 Form", lo que está en negrita es el nombre del objeto, y lo que le sigue es el tipo de objeto, en este caso es un Formulario (Form)

QUUE SON LOS JAR 5.

JAR: es un tipo de archivo que permite ejecutar aplicaciones escritas en lenguaje Java.
Como hemos visto una aplicación en Java está compuesta por varios ficheros .java. Al compilarlos obtenemos varios ficheros .class (uno por fichero .java), y no un único fichero ejecutable como ocurre en otros lenguajes. Para colmo, a menudo la aplicación está formada no sólo por los ficheros .class sino que usa ficheros de sonido (usualmente .au en Java), iconos, etc., lo que multiplica la cantidad de ficheros que forman la aplicación compilada. Esto hace que "llevarse" la aplicación para ejecutarla en un ordenador diferente resulte un poco lioso: olvidar cualquiera de los ficheros que componen la aplicación significaría que ésta no va a funcionar correctamente. En el caso de un applet se añade el problema de la velocidad, al tener que viajar todos los ficheros a través de internet.

Los ficheros Jar (Java ARchives) permiten recopilar en un sólo fichero varios ficheros diferentes, almacenándolos en un formato comprimido para que ocupen menos espacio. Es por tanto, algo similar a un fichero .zip (de hecho están basados en ficheros .zip). Entonces, ¿dónde está la "gracia"? ¿No se podrín usar directamente ficheros .zip? La particularidad de los ficheros .jar es que no necesitan ser descomprimidos para ser usados, es decir que el intérprete de Java es capaz de ejecutar los archivos comprimidos en un archivo jar directamente. Por ejemplo, si hemos recopilado todos los ficheros necesarios para ejecutar una aplicación en un fichero "aplic.jar", podemos lanzar la aplicación desde una terminal de texto mediante: java -jar aplic.jar

Hemos visto que se puede lanzar una aplicación llamando al intérprete de java (comando java) seguido de -jar y del nombre del fichero .jar correspondiente. Sin embargo hay algo en todo esto que no "encaja": Si el fichero .jar contiene muchos ficheros .class, ¿cuál de todos se ejecuta? Sabemos que debe ejecutarse el que contiene el método main pero, ¿cómo sabe el intérprete de Java que clase de todas las del fichero contiene este método? La respuesta es que lo sabe porque se lo tenemos que decir durante la creación del fichero jar. Y la forma de hacerlo es un poco liosa. Vamos a verlo paso a paso. Para simplificar suponemos que estamos en un terminal de texto (consola Linux o símbolo del sistema en Windows), que el comando jar es accesible (es decir, la carpeta que contiene jar.exe está en el Path) y que nos encontramos en el directorio donde se encuentran los ficheros .class que deseamos "empaquetar".

Crear un directorio META-INF (¡las mayúsculas son importantes!) y dentro un fichero MANIFEST.MF. Este fichero indica, entre otras cosas, cual será la clase principal. A menudo el fichero MANIFEST.MF contiene una única línea.

El nombre fich.jar es el que nosotros queramos y corresponde al fichero .jar que se creará conteniendo todos los ficheros indicados (en este caso todos los ficheros .class). Se puede comprobar que el contenido del fichero es el el adecuado escribiendo:
jar tf fich.jar
que mostrará la lista de clases contenidas en el fichero. Este comando también puede ser útil para examinar el contenido de las librerías del sistema. Para lanzar el archivo basta con teclear ahora:
java -jar fich.jar

Si alguna vez se quiere "desempaquetar" el contenido de un archivo jar se pueden usar las opciones "xf":
jar fich.jar

Esto puede resultar particularmente útil si queremos echar un vistazo a algunos paquetes del sistema que vienen de esta forma.

jueves, 28 de mayo de 2009

METATARSO 5.

El metatarso se compone de 5 huesos metatarsianos (Ossa metatarsila), que se enumeran desde la cara medial del pie.

Los metatarsianos son unos huesos largos formados por un cuerpo prismático triangular con tres caras, superior y laterales, y dos extremos, anterior y posterior, este último con cinco caras, de las cuales tres son articulares ( excepto el 1 y el 5, que sólo tiene dos)

El primer metetarsiano es más corto y duro que los demás. El segundo es el más largo. Cada metatarsiano posee una base proximal, un cuerpo y una cabeza distal. La base de cada metatarsiano es el extremo proximal de mayor tamaño. Sus bases se articulan con la cuña y el cuboides, y las cabezas, con las falanges del pie proximales.

Se articulan por el extremo posterior unos con otros y con los huesos de la segunda fila del tarso: el 1 con la 1ª cuña; el 2 con la 2ª cuña; el 3 con la 3ª cuña, y el 4 y 5 con el cuboides. Por el extremo anterior se articulan con las falanges de los dedos.


Metatarso, conjunto de cinco huesos de la planta del pie, situados entre los del tarso y las falanges de los dedos del pie. Se trata de huesos largos con un cuerpo, una extremidad anterior, o cabeza de los metatarsianos, y una extremidad posterior. Se articulan de tal forma que dan lugar a la llamada bóveda plantar, un arco que se mantiene gracias a robustos ligamentos que parten de la base del tarso y de los huesos metatarsianos.

Entre las patologías que pueden afectar al primer metatarsiano cabe destacar el llamado hallux valgus, una deformación hacia fuera del dedo gordo en la que se observa la prominencia de la cabeza del primer metatarsiano, que se hipertrofia y deforma. Se va formando un callo a la altura de la prominencia metatarsiana que se conoce coloquialmente como juanete.



24 DE FEBRERO 4.

La Bandera Nacional, símbolo por excelencia de la unidad y la soberanía nacionales, surge y se transforma a la par de los grandes acontecimientos del desarrollo histórico de la patria. La necesidad de constituirse como un país republicano y democrático hizo indispensable la adopción de símbolos propios que reflejaran las características culturales y sociales de los mexicanos, para, de esa forma, sentar las bases de la nación mexicana. En 1810, el pueblo se levantó en armas acaudillado por Miguel Hidalgo, sublevación que marcaría un hito trascendental en la historia patria. El cura de Dolores tomó de la iglesia de Atotonilco un lienzo con la imagen de la virgen de Guadalupe, que se convirtió en bandera del sentimiento libertador en la lucha contra los opresores españoles.

Durante la primera etapa de la revolución de independencia, los insurgentes no utilizaron, de manera general, pabellones o insignias. A la caída de los primeros jefes insurgentes se erigió la figura de otro sacerdote, más cercano a la realidad social prevaleciente, José María Morelos y Pavón, quien daría a nuestro país la primera Constitución, la proclamación de su independencia y la ideología que cimentó las bases para el crecimiento político ulterior de nuestra patria.

La bandera mexicana es uno de los símbolos nacionales que nos identifica y nos impulsa a seguir conquistando la libertad, la democracia y la justicia. Se compone de un rectángulo dividido en tres franjas verticales del mismo tamaño y de colores verde, blanco y rojo con el Escudo Nacional en el centro.
Para llegar a la bandera que hoy conocemos, tuvieron que hacerse varias modificaciones al igual que las que ha tenido la historia mexicana.


Cuando el pueblo se levantó en armas en 1810, la bandera que utilizó Miguel Hidalgo fué un lienzo con la imagen de la virgen de Gudalupe que tomó de la iglesia de Atotonilco.
Después con Morelos, la bandera que lo acompañó en su lucha hasta el año de 1814, era un rectángulo de color azul con otro de color blanco, este último tenía en el centro un águila coronada que posaba sobre un nopal, encima de un puente de tres arcos con las iniciales "VVM" (Viva la Virgen María).


La bandera trigarante que se elaboró conforme al Plan de Iguala, tenia los colores blanco, verde y rojo; estos estaban colocados en franjas diagonales que representaban las ideas de religión, unión e independencia, en el centro de cada franja había una estrella.
En cambio, el 2 de noviembre de 1821, Iturbide decidió que el orden de los colores de la bandera serían verde, blanco y rojo con franjas verticales, figurando en el centro la imagen de un águila coronada.


El 14 de abril de 1823, el Congreso Constituyente Mexicano decretó que el escudo sería el águila parada sobre un nopal, agarrando con la pata derecha una serpiente. Se especificó así por el significado que el pueblo azteca dio a esos elementos:

El águila se identificaba con el sol.
La serpiente con la diosa Coatlicue.
El nopal y su fruto(tuna) representaban el corazón humano.


Esta imagén se originó de la fundación de México Tenochtitlán en 1325.
Quien se encargó de reglamentar los colores del lábaro patrio con el águila de perfil, fué Venustiano Carranza.


Los colores de la bandera mexicana, tienen al igual que el escudo, su significado partícular:
El verde: Simboliza el ideal de independencia política de México, no sólo con relación a España, sino también de otra nación.


Blanco: Es la pureza de la religión católica, principio activo de la unidad nacional.

El Rojo Representa la unión entre los indios, mestizos, criollos y españoles residentes de México y, en general entre todos lo que constituían la población mexicana.

Sus tres colores, son tres garantías que definen las ideas políticas que impulsaron el proyecto de independencia nacional, y de los mexicanos que iniciaron la construcción de un Estado libre y soberano.

Asi llegamos a la bandera que conocemos hoy, la cual se ondeó por primera vez en el Palacio Nacional el 15 de septiembre de 1917 y después en 1934, ya que en ese año se creó el Día de la Bandera Mexicana y a partir de entonces se celebra cada 24 de febrero. Esta festividad fue oficialmente reconocida en 1940, por el decreto del Presidente Lázaro Cárdenas del Río.

CONTAMINACION ESPACIAL 4.

Contaminación es la introducción en un medio cualquiera de un contaminante; es decir cualquier sustancia o forma de energía con potencial para provocar daños, irreversibles o no en el medio ambiente. Para que podamos hablar de contaminación es necesario que el agente se introduzca por encima de la capacidad del medio para eliminarlo. No es, pues, una cuestión de qué productos se introducen, sino su cantidad. La proliferación de estos residuos supone un desequilibrio grave en el biosistema, hasta el punto de llegar a imposibilitar la vida de las especies existentes. El agua, el aire y el suelo, son los principales medios contaminados.
En función del medio afectado se distingue: Contaminación atmosférica, contaminación del medio hídrico y Contaminación del suelo.


La contaminación atmosférica es debida a las emisiones atmosféricas. Los contaminantes principales son los productos de procesos de combustión convencional en actividades de transporte, industriales, generación eléctrica y calefacción doméstica, la evaporación de disolventes orgánicos y las emisiones de ozono y freones.
La contaminación del aire resulta muy fácil. Su problema, real, comienza con la utilización masiva de combustibles fósiles en la industria y la automoción. Las ciudades son lugares en las que las concentraciones de partículas contaminantes son especialmente elevadas, junto con los grandes centros industriales.


El régimen de vientos expande las partículas por todo el globo, pero es en los países industrializados donde mayor incidencia tiene la contaminación del aire. Estas partículas (CO2, SO2) se precipitan, mezcladas con el agua de lluvia, formando ácido clorhídrico y ácido sulfúrico, y dando lugar a la lluvia ácida, de efectos tan perniciosos para las biocenosis, al proporcionar un agua no apta para ser consumida por los seres vivos.
Las consecuencias de la contaminación aérea en el clima global están por determinar, puesto que si, por un lado, parece que hace disminuir el brillo del sol, por otro, parece que hace aumentar el efecto invernadero. Las series de estudios al respecto son aún demasiado cortas para llegar a conclusiones definitivas, aunque parece que apuntan en el sentido del calentamiento global del clima. O al menos, si no son su causa si parece que puedan acelerar el proceso.


La contaminación del medio hídrico consiste en la presencia de contaminantes en el agua (río o mar). Los contaminantes principales son los vertidos industriales (presencia de metales y evacuación de aguas a elevada temperatura) y aguas negras (saneamiento de poblaciones).
El agua es un recurso escaso, pero de importancia vital para la sociedad y la naturaleza, ya que forma parte, en un tanto por ciento elevado, de la constitución de todos los seres vivos. De todo el agua existente en el planeta, sólo una pequeña parte es aprovechable por la sociedad, y por la mayor parte de la naturaleza.
El agua es un recurso que proporciona energía y vida. La peculiar forma de vida humana, en grandes ciudades escasas de agua, y las técnicas de producción son grandes consumidoras de agua, lo que exige la creación de grandes infraestructuras, como embalses y conducciones de distribución del agua, tanto aéreas como subterráneas. Incluso, se puede llegar al trasvase de agua entre cuencas hidrográficas.


De todo lo disponible, el 80% del agua se utiliza en la agricultura de regadío, que se contamina poco, dependiendo de los abonos químicos que se hayan utilizado. El 14% del agua lo utiliza la industria, que es altamente contaminada. Y el 6% restante lo utiliza la ciudad, y también está muy contaminada una vez que se ha utilizado. Frecuentemente, parte del agua disponible se pierde a causa de las malas conducciones. Se puede perder hasta el 40% del total embalsado.
El agua de las ciudades y de la industria, pero también en algunos casos de la agricultura, está contaminada por productos difícilmente degradables, como los aceites o los detergentes. Estos productos se vierten en los ríos, con lo que se disminuyen las proporciones de oxígeno. Algunos productos pueden actuar directamente de veneno para algunas especies que viven en el agua, o que la utilizan, es el caso de la contaminación por mercurio y otros metales pesados. Estos productos, a través del agua, se depositan en los suelos y entran a formar parte de la cadena trófica y la alimentación humana.


Los agentes contaminantes alcanzan otros ámbitos a través de los ríos. Debido a las dimensiones de la contaminación han llegado a perjudicar, gravemente, mares enteros, comprometiendo el equilibrio ecológico de ellos, de su entorno y de todo el planeta.

GEOSFERA 4.

La geosfera es la parte estructural de la Tierra que se extiende desde la superficie hasta el interior del planeta (unos 6.740 km). Esta capa se caracteriza por tener una estructura rocosa que sirve de soporte al resto de los otros sistemas terrestres la biosfera y la atmósfera, situados estos sobre la parte más superficial.

Está compuesta por 3 tipos de elementos químicos: Hierro, oxígeno y silicio, que junto al resto de los elementos forman las rocas e minerales que existen en esta capa.

CORTEZA TERRESTRE

Es la capa superior de la Geosfera; llamada también Litosfera u Oxisfera (esfera de oxígeno). Sobre esta capa vive el hombre y realiza muchas actividades como la agricultura o minería.
En esta capa la gradiente geotérmica es de 1°C por cada 33m de descenso. Este aumento de la temperatura es constante sólo en la corteza, pues en las otras capas es diferente.
Está constituida de rocas, que a su vez conforman las placas tectónicas y suelos. Su espesor es de 60 km. Representa el 2% del volumen de la Geosfera. Se encuentra dividida en dos subcapas:



Sial (silicio y aluminio), es la corteza continental sobre la cual vive el hombre y realiza sus actividades. La roca que más abunda es el granito.
Sima (silicio y magnesio), es la corteza oceánica. Sobre ella descansan los océanos.

EL MANTO

Es la capa intermedia de la Geosfera, porque se ubica entre la corteza y el núcleo. Es llamada también Mesosfera y está conformada por rocas cuyo estado varía entre el semisólido y el líquido, debido a las altas temperaturas. Tiene 2850 km. de espesor aproximadamente y está compuesta principalmente de magnesio, silicio y hierro. Representa el 82% del volumen de la Geosfera. Está dividida en dos subcapas:
Astenosfera, aquí encontramos magma formando corrientes convectivas (magma en movimiento) sobre la cual flotan las placas tectónicas. Es por eso que las placas tectónicas se mueven.
Pirosfera, considerada el fondo de los volcanes.

EL NUCLEO

Es la capa más profunda de la geosfera. Es llamada también Nife, porque en su composición se encuentra el Níquel y el Hierro. Aquí se registran las más altas presiones y temperaturas, aproximadamente 6000°C. Constituye el centro de la Tierra y posee un espesor de 3470 km. Representa el 16% del espesor de la Geosfera. Se divide en dos subcapas:
Núcleo externo: se encuentra en estado líquido.
Núcleo interno: se encuentra en estado sólido, esto es debido a las fuertes presiones que ahí se experimentan.

BLUETOOTH 4.

Bluetooth, Diente azul o Dientazul es una especificación industrial para Redes Inalámbricas de Área Personal (WPANs) que posibilita la transmisión de voz y datos entre diferentes dispositivos mediante un enlace por radiofrecuencia segura y globalmente libre (2,4 GHz.). Los principales objetivos que se pretenden conseguir con esta norma son:
Facilitar las comunicaciones entre equipos móviles y fijos.
Eliminar cables y conectores entre éstos.
Ofrecer la posibilidad de crear pequeñas redes inalámbricas y facilitar la sincronización de datos entre equipos personales.
Los dispositivos que con mayor intensidad utilizan esta tecnología pertenecen a sectores de las telecomunicaciones y la informática personal, como PDA, teléfonos móviles, computadoras portátiles, ordenadores personales, impresoras o cámaras digitales.


El nombre procede del rey danés y noruego Harald Blåtand cuya traducción al inglés sería Harold Bluetooth (Diente Azul, aunque en lengua danesa significa 'de tez oscura') conocido por buen comunicador y por unificar las tribus noruegas, suecas y danesas.
De la misma manera, Bluetooth intenta unir diferentes tecnologías como las de las computadoras, los teléfonos móviles y el resto de periféricos.
El símbolo de Bluetooth es la unión de las runas nórdicas análogas a las letras H y B:
(Hagall) y (Berkanan.

El Bluetooth Special Interest Group (SIG), una asociación comercial formada por líderes en telecomunicación, informática e industrias de red, está conduciendo el desarrollo de la tecnología inalámbrica Bluetooth y llevándola al mercado.
La tecnología inalámbrica Bluetooth es una tecnología de ondas de radio de corto alcance (2.4 gigahertzios de frecuencia) cuyo objetivo es el simplificar las comunicaciones entre dispositivos informáticos, como ordenadores móviles, teléfonos móviles, otros dispositivos de mano y entre estos dispositivos e Internet. También pretende simplificar la sincronización de datos entre los dispositivos y otros ordenadores.


Se denomina Bluetooth al protocolo de comunicaciones diseñado especialmente para dispositivos de bajo consumo, con una cobertura baja y basados en transceptores de bajo coste.
Gracias a este protocolo, los dispositivos que lo implementan pueden comunicarse entre ellos cuando se encuentran dentro de su alcance. Las comunicaciones se realizan por radiofrecuencia de forma que los dispositivos no tienen que estar alineados y pueden incluso estar en habitaciones separadas si la potencia de transmisión lo permite. Estos dispositivos se clasifican como "Clase 1", "Clase 2" o "Clase 3" en referencia a su potencia de trasmisión, siendo totalmente compatibles los dispositivos de una clase con los de las otras.

MERCADOTECNIA 4.

Para empezar podemos definir la mercadotecnia como una ciencia, un proceso social y administrativo mediante el cual grupos e individuos obtienen lo que necesitan y desean a través de generar, ofrecer e intercambiar productos de valor con sus semejantes. El especialista en el área de mercadotecnia se llama "Mercadólogo".
El punto de partida de la mercadotecnia radica en las necesidades y deseos humanos. La necesidad humana es
el estado en el que se siente la privación de algunos satisfactores básicos. Los deseos, consisten en anhelar los satisfactores específicos para estas necesidades profundas. La demanda, por su parte, consiste en desear productos específicos que están respaldados por la capacidad y la voluntad de adquirirlos.

El término marketing es un anglicismo que tiene diversas definiciones. Según Philip Kotler (considerado por algunos padre del marketing[1] ) es «el proceso social y administrativo por el cual los grupos e individuos satisfacen sus necesidades al crear e intercambiar bienes y servicios».[2] Sin embargo, hay otras definiciones; como la que afirma que el marketing es el arte o ciencia de satisfacer las necesidades de los clientes y obtener ganancias al mismo tiempo.
En
español, marketing suele traducirse como mercadotecnia o mercadeo.

Por otra parte, la palabra marketing está reconocida por el DRAE;[3] aunque se admite el uso del anglicismo, la RAE recomienda usar con preferencia la voz española mercadotecnia.[4]
El marketing involucra estrategias de mercado, de ventas, estudio de mercado, posicionamiento de mercado, etc. Frecuentemente se confunde este término con el de publicidad, siendo ésta última sólo una herramienta de la mercadotecnia.

El mercado está formado por todos los clientes potenciales que comparten una necesidad o deseo específico y que podrían estar dispuestos a participar en un intercambio que satisfaga esa necesidad o deseo.
En tiempos antiguos, el término
mercado se refería al lugar donde compradores y vendedores hacían el intercambio de mercancías, aunque los mercadólogos consideran que los vendedores constituyen la industria y los compradores el mercado. Hay varios tipos de mercado: el mercado de producto, el mercado demográfico, el mercado geográfico, el mercado de votantes, el mercado de trabajo y el mercado de donantes.

El concepto de mercado nos remite al concepto de mercadotecnia, es una actividad humana que está relacionada con los mercados, significa trabajar en ellos para actualizar los intercambios potenciales con el objeto de satisfacer las necesidades humanas. El mercadólogo es aquel que busca un recurso de alguien más y está dispuesto a ofrecer algo de valor a cambio, puede ser un vendedor o un comprador, el mercadólogo es una empresa que sirve a un mercado de usuarios finales frente a la competencia, su efectividad relativa está influida por sus respectivos proveedores, además de las fuerzas ambientales.


La
administración de la mercadotecnia es el proceso de planear y ejecutar la concepción, fijación de precios, promoción y distribución de ideas, mercancías y servicios para dar lugar a intercambios que satisfagan objetivos individuales y organizacionales. Es un proceso que comprende análisis, planeación, instrumentación y control; que abarca bienes, servicios e ideas; que se basa en la teoría del intercambio y cuya meta es satisfacer a las partes involucradas. La administración de la mercadotecnia, a lo largo del tiempo, se le ha identificado con las funciones y el comportamiento del personal con el mercado de clientes. La labor de la mercadotecnia en el mercado de clientes la llevan a cabo los gerentes de ventas, representantes de ventas, los gerentes de publicidad y promoción, los investigadores de mercado, los gerentes de servicio a clientes, gerentes de producto y de marca, los gerentes de industria y mercado y el vicepresidente de mercadotecnia. A la administración de la mercadotecnia le corresponde la función de influir en el nivel, la oportunidad y la composición de la demanda, de tal forma que contribuya a que la organización logre sus objetivos.

La organización se forma una idea del nivel deseado de transacciones con el mercado meta. Sin embargo, en ocasiones el nivel real de demanda puede estar abajo, ser igual o estar por encima del nivel deseado en cuanto a demanda. Los ejecutivos de mercadotecnia confrontan esta tarea por medio de la investigación, la planeación, la instrumentación y el control de mercados. Dentro de la planeación deben tomar decisiones respecto a los mercados meta, el control del mercado, desarrollo del producto, fijación de precios, canales de distribución, distribución física, comunicación y promoción.

TOUCHSCREEN 4.

Una pantalla táctil (touchscreen en inglés) es una pantalla que mediante un contacto directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrando los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos.

Las pantallas tactiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971 por el Dr. Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos y en PDAs donde se suele emplear un estilo para manipular la interfaz gráfica de usuario y para introducir datos. La popularidad de los teléfonos inteligentes, de las PDAs, de las vídeo consolas portátiles o de los navegadores de automóviles está generando la demanda y la aceptación de las pantallas táctiles.

El HP-150 fue, en 1983, uno de los primeros ordenadores comerciales del mundo que disponía de pantalla táctil. En realidad no tenía una pantalla táctil en el sentido propiamente dicho, sino una pantalla de tubo Sony de 9 pulgadas rodeada de transmisores y receptores infrarrojos que detectaban la posición de cualquier objeto no-transparente sobre la pantalla.
Las pantallas táctiles de última generación consisten en un cristal transparente donde se sitúa una lámina que permite al usuario interactuar directamente sobre esta superficie, utilizando un proyector para lanzar la imagen sobre la pantalla de cristal. Se sale de lo que hasta hoy día se entendía por pantalla táctil que era básicamente un monitor táctil.


Las pantallas táctiles son populares en la industria pesada y en otras situaciones, tales como exposiciones de museos donde los teclados y los ratones no permiten una interacción satisfactoria, intuitiva, rápida, o exacta del usuario con el contenido de la exposición.

Una pantalla táctil resistiva esta formada por varias capas. Las más importantes son dos finas capas de material conductor entre las cuales hay una pequeña separación. Cuando algún objeto toca la superficie de la capa exterior, las dos capas conductoras entran en contacto en un punto concreto. De esta forma se produce un cambio en la corriente eléctrica que permite a un controlador calcular la posición del punto en el que se ha tocado la pantalla midiendo la resistencia. Algunas pantallas pueden medir, aparte de las coordenadas del contacto, la presión que se ha ejercido sobre la misma.

Las pantallas táctiles resistivas son por norma general más asequibles pero tienen una pérdida de aproximadamente el 25% del brillo debido a las múltiples capas necesarias. Otro inconveniente que tienen es que pueden ser dañadas por objetos afilados. Por el contrario no se ven afectadas por elementos externos como polvo o agua, razón por la que son el tipo de pantallas táctiles más usado en la actualidad.

Una pantalla táctil capacitiva esta cubierta con un material, habitualmente óxido de indio y estaño que conduce una corriente eléctrica continua a través del sensor. El sensor por tanto muestra un campo de electrones controlado con precisión tanto en el eje vertical como en el horizontal, es decir, adquiere capacitancia. El cuerpo humano también se puede considerar un dispositivo eléctrico en cuyo interior hay electrones, por lo que también dispone de capacitancia. Cuando el campo de capacitancia normal del sensor (su estado de referencia) es alterado por otro campo de capacitancia, como puede ser el dedo de una persona, los circuitos electrónicos situados en cada esquina de la pantalla miden la 'distorsión' resultante en la onda senoidal característica del campo de referencia y envía la información acerca de este evento al controlador para su procesamiento matemático.

Los sensores capacitivos deben ser tocados con un dispositivo conductivo en contacto directo con la mano o con un dedo, al contrario que las pantallas resistivas o de onda superficial en las que se puede utilizar cualquier objeto. Las pantallas táctiles capacitivas no se ven afectadas por elementos externos y tienen una alta claridad, pero su complejo procesado de la señal hace que su coste sea elevado.

Las pantallas táctiles por infrarrojos consisten en una matriz de sensores y emisores infrarrojos horizontales y verticales. En cada eje los receptores están en el lado opuesto a los emisores de forma que al tocar con un objeto la pantalla se interrumpe un haz infrarrojo vertical y otro horizontal, permitiendo de esta forma localizar la posición exacta en que se realizó el contacto. Este tipo de pantallas son muy resistentes por lo que son utilizadas en muchas de las aplicaciones militares que exigen una pantalla táctil.

martes, 26 de mayo de 2009

30 DE ABRIL 4.

La idea de festejar el "día del niño" surgió el 20 de noviembre de 1959, cuando la Asamblea General de la ONU tuvo una reunión en Ginebra, Suiza, en la que decidió reafirmar los derechos de los niños universalmente.Desde entonces y aunque la celebración mundial es el 20 de noviembre, cada país ha elegido un día especial para celebrar y organizar actividades, con el fin de ayudar a desarrollar el bienestar de los pequeños en todo el planeta.En Bolivia por ejemplo el día del niño es el 12 de abril.Ecuador: 1 de junio.

En Chile es el primer domingo de agosto.Para Argentina el día del niño se celebra el segundo domingo de agosto.En Perú el tercer domingo de agosto.En Brasil el 12 de Octubre.Colombia: 3 de abril.Los paraguayos lo festejan el 31 de Mayo.El día del niño en Uruguay es el 9 de Agosto.Para Venezuela el 3er. Domingo de Junio.En México en 1924, se señaló el 30 de abril como DIA DEL NIÑO siendo presidente de la República el general Álvaro Obregón y Ministro de Educación Pública el licenciado José Vasconcelos.A partir de entonces cada año se les hacen grandes festejos tanto en casa como en diferentes instituciones públicas y privadas.

Definitivamente con esto se ha demostrado que los peques han sido, son y serán los reyes de la casa y la alegría del mundo.Aprovecha entonces este día para festejarlos, pero también para demostrarles tu afecto y tu respeto todo el año.En la sección de peques y todo ClubPlaneta también los felicitamos y esperamos que se la pasen muy bien.

WIFI 4.

Wi-Fi es un sistema de envío de datos sobre redes computacionales que utiliza ondas de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.Nokia y Symbol Technologies crearon en 1999 una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance, Alianza de Compatibilidad Ethernet Inalámbrica). Esta asociación pasó a denominarse Wi-Fi Alliance en 2003 .

El objetivo de la misma fue crear una marca que permitiese fomentar más fácilmente la tecnología inalámbrica y asegurar la compatibilidad de equipos.“Wi-Fi y el "Style logo" del Ying Yang fueron inventados por la agencia Interbrand. Nosotros (WiFi Alliance) contratamos Interbrand para que nos hiciera un logotipo y un nombre que fuera corto, tuviera mercado y fuera fácil de recordar. Necesitábamos algo que fuera algo más llamativo que “IEEE 802.11b de Secuencia Directa”. Interbrand creó nombres como “Prozac”, “Compaq”, “OneWorld”, “Imation”, por mencionar algunas. Incluso inventaron un nombre para la compañía: VIVATO.”

MICRO BLOGGING 4.

El microblogging, también conocido como nanoblogging, es un servicio que permite a sus usuarios enviar y publicar mensajes breves (alrededor de 140 caracteres), generalmente de sólo texto. Las opciones para el envío de los mensajes varían desde sitios web, a través de SMS, mensajería instantánea o aplicaciones ad hoc.Estas actualizaciones se muestran en la página de perfil del usuario, y son también enviadas de forma inmediata a otros usuarios que han elegido la opción de recibirlas. El usuario origen puede restringir el envío de estos mensajes sólo a miembros de su círculo de amigos, o permitir su acceso a todos los usuarios, que es la opción por defecto.

METAMORFOSIS 4.

Se define la metamorfosis como la transformación profunda de una persona, un animal o una cosa en otra. Respecto a las personas tiene valor metafórico. En botánica, Goethe se cuidó de explicar con todo el lirismo que cabe, cómo en las plantas los tres elementos básicos: raíz, tallo y hojas son capaces de adquirir las más diversas formas para crear los demás órganos: las flores con su gran complejidad y variedad, los frutos, de todas formas, texturas, colores y sabores; los recubrimientos adaptados a las necesidades de cada planta: desde los aterciopelados a los amortiguadores (corcho), pasando por los urticantes y los de pinchos agudísimos; la adaptación a los climas más secos, desarrollando una gran capacidad de aprovechamiento y almacenamiento del agua; y así una gama infinita de caracteres que se desarrollan en contenares de miles de especies. Y todo mediante procesos de metamorfosis de los tres elementos básicos.

Partimos del griego morjh (morfé), que al igual que su equivalente latino forma, significa forma, figura, aspecto exterior, apariencia; y como en latín, hermosura, gracia, calidad; morjwsiV (mórfosis) es igualmente la forma, y también la belleza. Con el prefijo meta (metá) = más allá, lo convertimos en trans-formatio = trans-forma-ción, es decir en acción de cambiar de forma. Fueron los propios griegos los creadores de esta palabra: metamorjwsiV (metamórfosis) transformación, metamorfosis. Forjaron también el verbo metamorjow (metamorfóo)= transformar, metamorfosear; eiV ti (eis ti), en algo. En pasiva significa metamorfosearse, transfigurarse. En el pasaje de la Transfiguración de Jesús (Mt. 17,2) se usa este verbo: kai metemorjwqh emprosqen autwn(kái metemórfoze émproszen autón) = y se transfiguró (se metamorfoseó) ante ellos.

En zoología se usa en especial el término metamorfosis para referirse a los cambios que experimentan muchas especies a lo largo de su vida: del estado embrionario pasan al larvario, totalmente distinto del adulto, tanto en la anatomía como en la forma de vida. En los insectos, las larvas se llaman orugas (recordemos los gusanos de seda, los gusanos de la fruta, progenie de bellas mariposas); en los anfibios son los renacuajos (ahí están las ranas).Toda metamorfosis es irreversible y está caracterizada por transformaciones tanto anatómicas como fisiológicas muy profundas. Pero aún hay más: el concepto de metamorfosis se ha aplicado profusamente al hombre: todas las culturas han considerado la capacidad de transformarse el hombre en otros animales. La que se ha prodigado más en nuestra cultura es la metamorfosis en lobo, documentada desde la misma mitología griega: Circe transformaba a los hombres en lobos mediante ciertos brebajes; Zeus Liceo transformó a Licaón en lobo por haberle sacrificado en el altar a un hijo suyo. Otras versiones cuentan que la carne del hijo sacrificado fue luego comida, y los que comieron de ella fueron transformados en lobos, que se alimentaban desde su metamorfosis con carne humana, y que volvían a recuperar su forma prístina si renunciaban durante un determinado número de años a comer carne humana. En la misma línea mítico-legendaria están el Minotauro, los vampiros, etc. Por fin hay que citar las metamorfosis mitológicas de Ovidio.

CALENTAMIENTO GLOBAL 3.

Esto es debido a el AUMENTO EXCESIVO de los gases de efecto invernadero, pero en realidad el efecto invernadero es un proceso normal de la tierra q consiste en que ésta mantenga el calor necesario para la vida humana reteniendo algunos de los rayos del Sol y así mantener una temperatura aproximada a los 15ºC promedio en tierra.Pero lo que está sucediendo es que con la actividad humana estos gases q son enviados directamente a la atmósfera están aumentando y no permiten de que los rayos puedan escapar y asi la tierra se está calentando de una forma repentina.El aumento de emisiones de gases de efecto invernadero es a la agricultura, a las actividades humanas, a las industrias a base de carbón, al consumo excesivo de energía, y el crecimiento de la población que a su vez genera una mayor demanda.TODO esto es un círculo vicioso.Lo que causa esto es el calentamiento global, a su vez, sus consecuencas, Inundaciones, sequías, un aumento en la temperatura (se estima que a fin de este siglo habrá aumentado aproximadamente 3ºC la temperatura promedio de la tierra) y así el descongelamiento de los hielos, a su vez aumento de las aguasy así desaparición de tierra , sobretodo las regiones donde se encuentran sobre el nivel del marAlgunas veces se utilizan las denominaciones cambio climático, que designa a cualquier cambio en el clima, o cambio climático antropogénico, donde se considera implícitamente la influencia de la actividad humana. Calentamiento global y efecto invernadero no son sinónimos.

El efecto invernadero acrecentado por la contaminación puede ser, según algunas teorías, la causa del calentamiento global observado.La temperatura del planeta ha venido elevándose desde mediados del siglo XIX, cuando se puso fin a la etapa conocida como la pequeña edad de hielo.El período sobre el que se discute la evolución de la temperatura varía, a menudo, indebidamente, según la tesis que se quiere defender. En ocasiones desde la Revolución Industrial, otras desde el comienzo de un registro histórico global de temperatura alrededor de 1860; o sobre el siglo XX, o los 50 años más recientes.

La década más calurosa del pasado siglo XX fue, con diferencia, la de los años 90. Los que niegan que haya calentamiento encuentran culpable que muchos gráficos empleados para mostrar el calentamiento empiecen en 1970, cuando comienza a subir de nuevo la temperatura después de 36 años de un ligero descenso. Señalan que durante los años posteriores a la Segunda Guerra Mundial se incrementó mucho la emisión de los gases de efecto invernadero, y afirman, falsamente,[3] que en la época predominó entre los especialistas la alarma por un posible oscurecimiento global o enfriamiento global a finales del siglo XX.[4] La interpretación actual, dentro del emergente consenso científico sobre el cambio climático, del enfriamiento relativo de mediados de siglo, lo atribuye al aumento en las emisiones de aerosoles claros, que amplifican el albedo, determinando un forzamiento negativo. Su reducción siguió a la sustitución de combustibles y tecnologías por otros que emiten menos de estos aerosoles, en parte por las medidas de lucha contra la contaminación urbana e industrial y la lluvia ácida en los países desarrollados, de manera que el aumento en la emisión global de aerosoles se ha frenado.En los últimos 20.000 años el suceso más importante es el final de la Edad de Hielo, hace aproximadamente 12.000 años.[5] Desde entonces, la temperatura ha permanecido relativamente estable, aunque con varias fluctuaciones como, por ejemplo, el Período de Enfriamiento Medieval o Pequeña Edad del Hielo. Según el IPCC, durante el siglo XX la temperatura promedio de la atmósfera se incrementó entre 0,4 y

EPIFISIOLISIS CRONICA 3.

La epifisiolisis femoral proximal (EFP) corresponde a una fractura del cartílago de crecimiento del fémur proximal (fractura tipo I, de acuerdo a la Clasificación de Salter-Harris), con desplazamiento de la cabeza femoral o epífisis femoral proximal, con respecto a la metáfisis respectiva. Más frecuente en varones, con una relación de (masculino, femenino) aproximadamente 2,5: 1, afecta principalmente a adolescentes con un rango de edad al momento del diagnóstico entre 9 y 16 años, promedio de 13,5 años para los hombres y 12 años para las mujeres. Se ha encontrado asociación con ciertas endocrinopatías (hipotiroidismo, tratamiento con agonistas (GnRH), osteodistrofia renal, historia de radioterapia previa en la región pelviana, sin embargo, en la gran mayoría de los casos, es de causa idiopática, probablemente por alteraciones biomecánicas y bioquímicas. Dentro de los factores biomecánicos, la obesidad puede jugar un rol importante y es un factor predisponente que está presente en aproximadamente el 50% de los casos, se supone por un aumento de la carga y mayor grado de stress sobre el cartílago de crecimiento o fisis. La EFP es una patología de la pubertad, lo que plantea la existencia de una alteración endocrina subyacente. Durante la pubertad existe además un rápido crecimiento longitudinal de los huesos, por aumento de la actividad a nivel de la fisis, con una disminución secundaria de su resistencia. La menor prevalencia en mujeres se debería a que los estrógenos reducen el ancho de la fisis y de esta manera, aumentarían su resistencia. Con frecuencia se asocia a un retardo en la maduración esquelética y puede afectar ambas caderas en 25 a 50% de los casos. Aproximadamente 50% de los pacientes con EFP tienen antecedentes de un traumatismo significativo antes del diagnóstico, los síntomas más comunes al momento de la presentación son coxalgia y cojera, pero alrededor de un 25% se presenta con dolor de rodilla. Desde el punto de vista de la presentación clínica, la EFP se puede clasificar en cuatro categorías: pre-epifisiolisis, epifisiolisis aguda, epifiosilis crónica y epifisiolisis crónica reagudizada. En la etapa previa al desplazamiento epifisiario (pre-epifisiolisis) los pacientes generalmente manifiestan debilidad en la extremidad afectada, claudicación, dolor inguinal o gonalgia. Al examen físico destaca la imposibilidad de rotación interna del muslo. La presentación como epifisiolisis aguda ocurre en el 10-15% del total de los casos y los síntomas se presentan generalmente en menos de tres semanas, al examen físico se observa limitación de la movilidad por dolor, con la extremidad acortada y en rotación externa y es frecuente la historia de traumatismo previo. La epifisiolisis crónica es la forma más común y se presenta en alrededor de un 85% de los casos. En este caso, los pacientes se presentan con síntomas que varían de meses a años de duración, principalmente dolor inguinal, de muslo y rodilla. El examen físico demuestra una posición antiálgica, limitación en la rotación interna, abducción y flexión de la cadera, a veces con acortamiento de la extremidad. La epifisiolisis crónica reagudizada se presenta con síntomas larvados que se exacerban al aumentar el desplazamiento de la cabeza femoral.

DIABETES 3.

La diabetes mellitus es una enfermedad que incapacita al cuerpo para metabolizar o usar eficazmente los carbohidratos, las proteínas y las grasas. Cuando comemos, los alimentos (especialmente carbohidratos y frutas) se convierten en glucosa. Todas las células del cuerpo necesitan glucosa para vivir, pero la glucosa no puede penetrar en las células sin la intervencción de la insulina. La insulina se produce en las células Beta, que están ubicadas en el extremo del páncreas.Por ejemplo, cuando comemos un pedazo de pan, una vez digerido se convierte en glucosa. La glucosa circula a través de la corriente sanguínea para alimentar a cada célula del cuerpo. La presencia de glucosa estimula las células Beta del páncreas para liberar insulina. La insulina llega hasta cada célula y actúa como una llave en sus receptores, con el fin de abrir sus puertas y dejar a la glucosa entrar . Si no hay insulina o los receptores de las células no funcionan, la glucosa no puede penetrar en las células, y la persona afectada sufrirá de carencias de nutrientes. La diabetes mellitus es la carencia absoluta o relativa de insulina que da como resultado acumulaciones anormales de grasa, y deficiencias en el metabolismo de las proteínas y los carbohidratos.Inicialmente, la ausencia en la producción de insulina afecta a la captación y entrada de glucosa en el músculo y células grasas. Cuando la ingesta de glucosa disminuye, el cuerpo demanda combustible, y el glucógeno se libera desde el hígado. El nivel de glucosa en sangre se eleva aún más. Cuando los niveles de glucosa en sangre se acercan a los 180 mg/dl, la capacidad de los conductos renales para reabsorber la glucosa (el umbral renal) se excede, y la glucosa es excretada por la orina (glucosuria). Puesto que la glucosa es un diurético osmótico, se excreta agua y sales en grandes cantidades y se produce la deshidratación celular. Cuando la situación se prolonga, la excesiva diuresis (poliuria) combinada con la pérdida de calorías ocasiona polidipsia (sed aumentada), polifagia (hambre aumentada) y fatiga: los síntomas

Imagen 3.




lunes, 25 de mayo de 2009

Imagen 2.


Imagen 1.


REDES INALAMBRICAS 3.

Las redes inalámbricas (en inglés wireless network) son aquellas que se comunican por un medio de transmisión no guiado (sin cables) mediante ondas electromagnéticas. La transmisión y la recepción se realiza a través de antenas.
Tienen ventajas como la rápida instalación de la red sin la necesidad de usar cableado, permiten la movilidad y tienen menos costos de mantenimiento que una red convencional.

Una red inalámbrica es, como su nombre lo indica, una red en la que dos o más terminales (por ejemplo, ordenadores portátiles, agendas electrónicas, etc.) se pueden comunicar sin la necesidad de una conexión por cable.
Con las redes inalámbricas, un usuario puede mantenerse conectado cuando se desplaza dentro de una determinada área geográfica. Por esta razón, a veces se utiliza el término "movilidad" cuando se trata este tema.

Una de las tecnologías más prometedoras y discutidas en esta década es la de poder comunicar computadoras mediante tecnología inalámbrica. La conexión de computadoras mediante Ondas de Radio o Luz Infrarroja, actualmente está siendo ampliamente investigado. Las Redes Inalámbricas facilitan la operación en lugares donde la computadora no puede permanecer en un solo lugar, como en almacenes o en oficinas que se encuentren en varios pisos.

No se espera que las redes inalámbricas lleguen a remplazar a las redes cableadas. Estas ofrecen velocidades de transmisión mayores que las logradas con la tecnología inalámbrica. Mientras que las redes inalámbricas actuales ofrecen velocidades de 2 Mbps, las redes cableadas ofrecen velocidades de 10 Mbps y se espera que alcancen velocidades de hasta 100 Mbps. Los sistemas de Cable de Fibra Optica logran velocidades aún mayores, y pensando futuristamente se espera que las redes inalámbricas alcancen velocidades de solo 10 Mbps.

Sin embargo se pueden mezclar las redes cableadas y las inalámbricas, y de esta manera generar una "Red Híbrida" y poder resolver los últimos metros hacia la estación. Se puede considerar que el sistema cableado sea la parte principal y la inalámbrica le proporcione movilidad adicional al equipo y el operador se pueda desplazar con facilidad dentro de un almacén o una oficina. Existen dos amplias categorías de Redes Inalámbricas.

Las redes inalámbricas se basan en un enlace que utiliza ondas electromagnética (radio e infrarrojo) en lugar de cableado estándar. Hay muchas tecnologías diferentes que se diferencian por la frecuencia de transmisión que utilizan, y el alcance y la velocidad de sus transmisiones.
Las redes inalámbricas permiten que los dispositivos remotos se conecten sin dificultad, ya se encuentren a unos metros de distancia como a varios kilómetros. Asimismo, la instalación de estas redes no requiere de ningún cambio significativo en la infraestructura existente como pasa con las redes cableadas. Tampoco hay necesidad de agujerear las paredes para pasar cables ni de instalar portacables o conectores. Esto ha hecho que el uso de esta tecnología se extienda con rapidez.

jueves, 21 de mayo de 2009

ENFERMEDADES MENTALES 3.

La enfermedad mental es una alteración de los procesos cognitivos y afectivos del desarrollo, considerado como anormal con respecto al grupo social de referencia del cual proviene el individuo. Esta alteración se manifiesta en trastornos del razonamiento, del comportamiento, de la facultad de reconocer la realidad y de adaptarse a las condiciones de la vida.
Dependiendo del concepto de
enfermedad que se utilice, algunos autores consideran más adecuado utilizar en el campo de la salud mental el término "trastorno mental" (que es el que utilizan los dos sistemas clasificatorios de la psicopatología más importantes en la actualidad: la CIE-10 de la Organización Mundial de la Salud y el DSM-IV-TR de la Asociación Psiquiátrica Americana). Sobre todo en aquellos casos en los que la etiología biológica no está claramente demostrada, como sucede en la mayoría de los trastornos mentales.
El concepto enfermedad mental aglutina un buen número de
patologías de muy diversa índole, por lo que es muy difícil de definir de una forma unitaria y hay que hablar de cada enfermedad o trastorno de forma particular e incluso individualizada ya que cada persona puede sufrirlas con síntomas algo diferentes.

Aun cuando clásicamente se han dividido las enfermedades mentales en Trastornos Orgánicos y Trastornos Funcionales, haciendo referencia al grado de génesis fisiológica o psíquica que determine al padecimiento, la evidencia clínica demuestra que ambas esferas no son independientes entre sí y que en la patología, como en el resto del desempeño psíquico "normal", ambos factores interactúan y se correlacionan para generar el amplio espectro del comportamiento humano tal como lo conocemos.
Existen numerosas categorías de trastornos mentales, con mayor o menor gravedad tanto en la vivencia subjetiva del individuo como en su repercusión dentro del funcionamiento social, así se hace alusión a otra clasificación clásica:
Trastornos Neuróticos y Trastornos Psicóticos.

Las psicosis, abarcan la manifestación más claramente asociada con la enfermedad mental, sus síntomas clásicos incluyen las alucinaciones, delirios y grave alteración afectiva y relacional, estos trastornos suelen tener un factor orgánico bastante pronunciado como los Trastornos Depresivos y Bipolares, aunque las esquizofrenias son claramente las de mayor repercusión personal, social y familiar dado su carácter crónico y degenerativo caracterizado por los elementos propios de todos los trastornos psicóticos a los cuales se añaden la desconexión con la realidad y aplanamiento afectivo.
La enfermedad mental suele degenerar en aislamiento social, inactividad, abulia, desorden del ritmo de vida en general y, en ciertos casos y circunstancias, comportamientos violentos e intentos suicidas.


EL ESTRES: Las personas pueden experimentar el estrés cuando se ven enfretadas ante eventos importantes los cuales pueden ser peligrosos o muy difícil de conllevar. Entre los síntomas psicológicos del estrés están la ansiedad y la tensión, la preocupación incontrolable, irritación, distracción, y dificultad en aprender cosas nuevas.
LA NEUROSIS: Son las afecciones que muestran un malfuncionamiento del sitema nervioso. En las neurosis no hay lesión física ni alteración de la personalidad. Las principales neurosis son la anciedad, una incontrolable obsesión por evitar situaciones peligrosas y una falta de acoplarse con personas. Algunos ejemplos de neurosis son el pánico, la fobia, el desorden compulsivo-obsesivo, y el estrés postraumático.


LOS TIPOS DE ENFERMEDADES MENTALES SON:

El estrés, La neurosis, La hipocondría, El desorden de la somatización, El desorden facticio, La esquizofrenia, La paranoia, La depresión, La manía, La manía-depresiva, El delirio, La demencia, El narcismo.

MAMMON.

Mammon es un término utilizado en el Nuevo Testamento para describir la abundancia o avaricia material.
Mammon es una palabra de origen arameo, significa "riqueza", pero tiene una etimología confusa; los eruditos han sugerido conexiones con el verbo "confiar" o un significado de la palabra "confiado", o con la palabra hebrea "matmon", significado "tesoro". También se utiliza en hebreo como palabra para simbolizar "dinero" (ממון.) . La palabra griega para "Mammon", es μαμωνας (mamonas), y puede verse en el Sermón de la montaña (durante el discurso sobre la ostentación) y en la parábola del administrador injusto (Lucas 16:9-16). Otros eruditos derivan Mammon del fenicio mommon ("beneficio" o "utilidad").
La palabra se utiliza en las lenguas contemporáneas con similares significados, de esta forma lo encontramos en
finés (mammona), el danés (mammon), y el polaco (mamona). Esto es muy probablemente debido a la influencia de la Biblia.

Durante las edades medias, Mammon fue personificado comúnmente como el demonio de la avaricia, de la riqueza y de la injusticia. Así Peter Lombard (II, dist. 6) dice,
"Riquezas es llamado por el nombre de un diablo, a saber Mammon, para Mammon es el nombre de un diablo, por quien las riquezas conocidas son llamadas según la lengüeta siria."
Los embarcaderos Plowman también miran a Mammon como deidad.[
cita requerida] Nicolás de Lira comenta respecto al pasaje en Lucas:
"Mammon est nomen daemonis" (Mammon es el nombre de un demonio).
Mammon es algo similar al
dios griego Hades, y el dios romano Dis Pater, en su descripción, y es probable que esté hasta cierto punto basado en ellos, especialmente puesto que Plutón/Hades era el custodio de las abundancias de la tierra y los lobos que son asociados a avaricia en las edades medias. Santo Tomás de Aquino describió metafóricamente el pecado de la avaricia como "Mammon que era ascendido desde el infierno por un lobo, viniendo inflamar el corazón humano con su avaricia".
Así mismo, se hace alusión a él en el
Paraíso perdido de John Milton, en donde se le ve como un ángel que, gozando de los privilegios de estar en el cielo, lo único que contempla de sus bellezas es el oro con el que están manufacturadas las calles de la ciudad divina. En la versión de Milton se alía con Satanás y Belcebú para luchar contra los ejércitos de Dios. Según el texto, fue el encargado de sembrar en el hombre la codicia de excavar la tierra para extraer de ella sus tesoros.

En los tiempos antes de la caída, Mammon era un Serafín al servicio de Marc. Pero su corazón se llenó con el deseo del dinero y se unió a Lucifer en la rebelión contra Dios. Cuando la guerra en el Cielo terminó, Los pecados de Mammon eran peores que cualquiera de los caídos.
El Príncipe de la Codicia, un Balseraph, es uno de los más poderosos Príncipes Infernales. Pero posee pocos enemigos debido a que sus favores pueden ser comprados por un precio justo. Gran cantidad de Príncipes tienen deudas con Mammon y el no esperará unos pocos milenios para cobrar dichas deudas.

LLUVIA ACIDA.

La lluvia ácida se forma cuando la humedad en el aire se combina con los óxidos de nitrógeno y el dióxido de azufre emitidos por fábricas, centrales eléctricas y vehículos que queman carbón o productos derivados del petróleo. En interacción con el vapor de agua, estos gases forman ácido sulfúrico y ácidos nítricos. Finalmente, estas sustancias químicas caen a la tierra acompañando a las precipitaciones, constituyendo la lluvia ácida.
Los contaminantes atmosféricos primarios que dan origen a la lluvia ácida pueden recorrer grandes distancias, trasladándolos los vientos cientos o miles de kilómetros antes de precipitar en forma de rocío, lluvia, llovizna, granizo, nieve, niebla o neblina. Cuando la precipitación se produce, puede provocar importantes deterioros en el ambiente.
La lluvia normalmente presenta un
pH de aproximadamente 5.65 (ligeramente ácido), debido a la presencia del CO2 atmosférico, que forma ácido carbónico, H2CO3. Se considera lluvia ácida si presenta un p H de menos de 5 y puede alcanzar el pH del vinagre (pH 3). Estos valores de pH se alcanzan por la presencia de ácidos como el ácido sulfúrico, H2SO4, y el ácido nítrico, HNO3. Estos ácidos se forman a partir del dióxido de azufre, SO2, y el monóxido de nitrógeno que se convierten en ácidos. Los hidrocarburos y el carbón usados como fuente de energía, en grandes cantidades, pueden también producir óxidos de azufre y nitrógeno y el dióxido de azufre emitidos por fábricas, centrales eléctricas y vehículos que queman carbón o productos derivados del petróleo. En interacción con el vapor de agua, estos gases forman ácido sulfúrico y ácidos nítricos. Finalmente, estas sustancias químicas suben a la atmósfera forman una nube y después caen a la tierra acompañando a las precipitaciones, constituyendo la lluvia ácida.

La acidificación de las aguas de lagos, ríos y mares dificulta el desarrollo de vida acuática en estas aguas, lo que aumenta en gran medida la mortalidad de peces. Igualmente, afecta directamente a la vegetación, por lo que produce daños importantes en las zonas forestales, y acaba con microorganismos fijadores de N.
El termino "llúvia ácida" abarca la sedimentación tanto húmeda como seca de contaminantes ácidos que pueden producir el deterioro de la superficies de los materiales. Estos contaminantes que escapan a la atmósfera al quemarse carbón y otros componentes fósiles reaccionan con el agua y los oxidantes de la atmósfera y se transforman químicamente en ácido sulfúrico y nítrico. Los compuestos ácidos se precipitan entonces a la tierra en forma de lluvia, nieve o niebla, o pueden unirse a partículas secas y caer en forma de sedimentación seca.


Un efecto indirecto muy importante es que los protones, H+, procedentes de la llúvia ácida arrastran ciertos iones del suelo. Por ejemplo, cationes de hierro, calcio, aluminio, plomo o zinc. Como consecuencia, se produce un empobrecimiento en ciertos nutrientes esenciales y el denominado estrés en las plantas, que las hace más vulnerables a las plagas

La lluvia ácida presenta un pH menor (más ácido) que la lluvia normal o limpia. Constituye un serio problema ambiental ocasionado principalmente por la contaminación de hidrocarburos fósiles. Estos contaminantes son liberados al quemar carbón y aceite cuando se usan como combustible para producir calor, calefacción o movimiento (gasolina y diesel).

El humo del cigarro es una fuente secundaria de esta contaminación, formada principalmente por dióxido de azufre (SO2) y óxidos de nitrógeno (NOx). Las erupciones volcánicas y los géiseres contribuyen con una pequeña cantidad de estos contaminantes a la atmósfera.
La lluvia ácida se forma generalmente en las nubes altas donde el SO2 y los NOx reaccionan con el agua y el oxígeno, formando una solución diluida de ácido sulfúrico y ácido nítrico. La radiación solar aumenta la velocidad de esta reacción.


La lluvia ácida huele, se ve y se siente igual que la lluvia normal, y se podría decir que podemos bañarnos con ella sin sentir un efecto inmediato especial. El daño que produce a las personas no es directo, es más inmediato el efecto de los contaminantes que producen esta lluvia y que llegan al organismo cuando éste los respira, afectando su salud.
Los productos del hombre, monumentos y edificios, son más susceptibles a la acción de la lluvia ácida. Muchas ruinas han desaparecido o están en vías de hacerlo, a causa de este factor.