domingo, 16 de octubre de 2016

Interfaces de almacenamiento


Un disco duro es un dispositivo magnético que almacena todos los programas y datos de la computadora. Se comunican con la computadora a través del controlador de disco empleando una interfaz estandarizado los mas comunes hoy en dia son IDE, SCSI ,Sata, Sata II y SAS.

El disco duro IDE, es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información a altas velocidades por medio de pequeños electro-imanes (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo esta totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido. Fue desarrollado y presentado por la empresa IBM en el año de 1956.

Un disco duro SATA, es un dispositivo electromecánico que se encarga de almacenar y leer grandes volúmenes de información con altas velocidades por medio de pequeños electro imanes  (también llamadas cabezas de lectura y escritura), sobre un disco cerámico recubierto de limadura magnética. Los discos cerámicos vienen montados sobre un eje que gira a altas velocidades. El interior del dispositivo esta totalmente libre de aire y  de polvo, para evitar choques entre partículas y por ende, pérdida de datos, el disco permanece girando todo el tiempo que se encuentra encendido. En la actualidad los discos han sido remplazados en el mercado por discos duros SATA 2.

Características:
  • Frontal Side Bus (FSB) o transporte frontal interno determina la la velocidad de transferencia de datos del disco duro. e mide en MegaBytes/segundo (MB/s) y es denominado también "Rate". Para discos duros IDE puede estar entre 66 MB/s, 100 MB/s y 133 MB/s. y en discos duros SATA es de 150 MB/s. Este dato en discos duros SATA puede estar entre 5200 RPM hasta 7200 RPM. 
  • Revoluciones por minuto (RPM) este valor determina la velocidad a que los discos internos giran cada minuto. Su unidad de medida es: revoluciones por minuto (RPM). Este dato en discos duros IDE puede ser 4800 RPM, 5200 RPM y hasta 7200 RPM. 
  • Capacidad del disco duro IDE La capacidad del total de Bytes ó símbolos que es capaz de almacenar un disco duro. Su unidad de medida básica es el Byte, pero actualmente se utiliza el GigaByte (GB). Para discos duros IDE este dato puede estar entre 10 MegaBytes (MB) hasta 750 GB. En la actualidad podemos encontrar discos duros con capacidades entre 80 GigaBytes (GB) hasta 8 TeraByte (TB).
  • Tamaño: 2.5" para discos duros internos para computadoras portátiles y 3.5 pulgadas para discos duros internos para computadora de escritorio. 

Small Computers System Interface (SCSI) Sistema de Interfaz para Pequeñas Computadoras, es una interfaz estándar para la transferencia de datos entre distintos dispositivos del bus de la computadora.
En el pasado, era muy popular entre todas las clases de ordenadores. Actualmente sigue siendo popular en lugares de trabajo de alto rendimiento, servidores, y periféricos de gama alta.

Puede depender de una tarjeta controladora SCSI para trabajar y ser instalados, también puede necesitar cable para datos de 40, 50, 68 ú 80 conectores, dependiendo el modelo. Algunos modelos tienen la característica denominada "Hot Swappable", lo que significa poder conectarlo y desconectarlo sin necesidad de apagar la computadora.

Las llamadas tarjetas controladoras SCSI, de las cuáles depende algunas veces, no es más que una tarjeta de expansión tipo ISA ó PCI, que permite interconectar el disco duro con la tarjeta principal ello porque al no ser tan popular, no viene soportado en las tarjetas principales comerciales. El disco duro SCSI tiene una medida estándar que es de 3.5 pulgadas para computadora de escritorio.

domingo, 18 de septiembre de 2016

El disco duro o disco rígido

El disco duro, también denominado como disco rígido, es un dispositivo de almacenamiento de datos no volátil (porque los contenidos almacenados no se pierden aunque no se encuentre energizado) y que emplea un sistema de grabación magnético para guardar los datos digitales.

El disco duro consiste de uno o varios platos o discos rígidos unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada, en tanto, sobre cada plato y en cada una de sus caras, se encuentra situado un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.


Las características que presenta un disco duro son: tiempo medio de acceso (el tiempo medio que tarda la aguja en situarse en la pista y el sector deseado), tiempo medio de búsqueda (tiempo que tarda el disco en situarse en la pista deseada), tiempo de lectura/escritura (el tiempo medio que tarda el disco en leer o escribir una nueva información), latencia media (tiempo medio que tarda la aguja en situarse en el sector deseado), velocidad de rotación (revoluciones por minuto de los platos) y tasa de transferencia (velocidad con la cual traslada la información a la computadora).

Los discos duros en la actualidad admiten distintos tipos de conexión: IDE, SCSI, SATA y SAS. En el mercado podemos encontrar discos duros en distintas medidas: 8 pulgadas, 5,25 pulgadas, 3,5 pulgadas, 2,5 pulgadas, 1,8 pulgadas, 1 pulgada y 0,85 pulgadas.

domingo, 11 de septiembre de 2016

DDR3 SDRAM


DDR3 SDRAM (de las siglas en inglés, Double Data Rate type three Synchronous Dynamic Random-Access Memory) es un tipo de memoria RAM, de la familia de las SDRAM usadas ya desde principios de 2010.

Las memorias DDR3 SDRAM permite usar integrados de 1 GB a 8 GB, siendo posible fabricar módulos de hasta 16 GB, tienen 240 contactos, los DIMMs son físicamente incompatibles, debido a una ubicación diferente de la muesca.

El principal beneficio de instalar DDR3 es la posibilidad de hacer transferencias de datos más rápidamente, y con esto obtener velocidades de transferencia y de bus más altas que las versiones DDR2. Proporcionando significativas mejoras de rendimiento en niveles de bajo voltaje, lo que conlleva una disminución global del consumo eléctrico. La principal desventaja es que no hay una reducción en la latencia, la cual es proporcionalmente más alta.


En 2005, Samsung Electronics anunció un chip prototipo de 512 MB a 1.066 MHz (la misma velocidad de bus frontal del Pentium 4 Extreme Edition más rápido) con una reducción de consumo de energía de un 40% comparado con los módulos comerciales DDR2, debido a la tecnología de 80 nanómetros usada en el diseño del DDR3 que permite más bajas corrientes de operación y tensiones (1,5 V, comparado con los 1,8 del DDR2 ó los 2,6 del DDR). Dispositivos pequeños, ahorradores de energía, como computadoras portátiles quizás se puedan beneficiar de la tecnología DDR3.

En 2008, Kingston Technology lanzó los primeros módulos de memoria a 2GB de la industria, para plataformas Intel Core i7.

Tras una larga transición , propiciada también por la integración de controladores de memoria en los procesadores, DDR2 se ha quedado solo para equipos antiguos, mientras que DDR3 ha ido extendiéndose tanto en portátiles como en equipos de sobremesa y netbooks.

domingo, 14 de agosto de 2016

DDR SDRAM

DDR SDRAM (de las siglas en inglés Double Data Rate Synchronous Dynamic Random-Access Memory) es un tipo de memoria RAM, de la familia de las SDRAM usadas ya desde principios de 1970. Su primera especificación se publicó en junio de 2000.

Fueron primero adoptadas de sistemas equipados con procesadores AMD Athlon. Intel con su Pentium 4 en un principio utilizó únicamente memorias RAMBUS, más costosas. Ante el avance en ventas y buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligado a cambiar su estrategia y utilizar memoria DDR, lo que le permitió competir en precio. Son compatibles con los procesadores de Intel Pentium 4 que disponen de un front-side bus de 64 bits de datos y frecuencias de reloj internas que van desde los 200 a los 400 MHz.



DDR permite a ciertos módulos de memoria RAM compuestos por memorias síncronas (SDRAM), disponibles en encapsulado DIMM, la capacidad de transferir simultáneamente datos por dos canales distintos en un mismo ciclo de reloj. Los módulos DDR soportan una capacidad máxima de 1 GiB (1 073 741 824 bytes). Una de sus características es que solo tiene una muesca, y cuenta con 184 terminales de color dorado. Esta memoria opera con 2,5 voltios.

No todas las placas base soportan un diseño de una única muesca de DDR RAM y algunos sólo pueden soportar tipos específicos como PC 2700 o inferior. Un módulo DDR RAM más rápido seguirá funcionando con una placa base no compatible pero sólo funcionará a una velocidad menor. La mayoría de las placas base sólo pueden manejar entre 2 y 4 módulos DDR RAM, así que insertar módulos adicionales no aumentará realmente las velocidades.

domingo, 31 de julio de 2016

Tipos de Memoria RAM


DRAM las siglas provienen de ("Dinamic Random Access Memory") ó dinámicas, también llamada RAM esta organizada en direcciones que son reemplazadas muchas veces por segundo, debido a que sus chips se encuentran construidos a base de condensadores (capacitores), los cuáles necesitan constantemente refrescar su carga (bits) y esto les resta velocidad pero a cambio tienen un precio económico. Esta memoria llegó a alcanzar velocidades de 80 y 70 nanosegundos (ns), esto es el tiempo que tarda en vaciar una dirección para poder dar entrada a la siguiente, entre menor sea el número, mayor la velocidad, y fué utilizada hasta la época de los equipos 386.


SRAM:  las siglas provienen de ("Static Random Access Memory") ó estáticas, debido a que sus chips se encuentran construidos a base de transistores, los cuáles no necesitan constantemente refrescar su carga (bits) y esto las hace sumamente veloces pero también muy caras. Esta memoria funciona como su nombre lo indica, se sincroniza con el reloj del procesador obteniendo información en cada ciclo de reloj, sin tener que esperar como en los casos anteriores. La memoria SDRAM puede aceptar velocidades de BUS de hasta 100Mhz, lo que nos refleja una muy buena estabilidad y alcanzar velocidades de 10ns. Se presentan en módulos DIMM, y debido a su transferencia de 64 bits, no es nesesario instalarlo en pares. El término memoria Caché es frecuentemente utilizada pare este tipo de memorias, sin embargo también es posible encontrar segmentos de Caché adaptadas en procesadores, discos duros, memorias USB y unidades SSD.

SWAP: La memoria virtual ó memoria Swap ("espacio de intercambio") no se trata de memoria RAM como tal, sino de una emulación (simulación funcional), esto significa que se crea un archivo de grandes dimensiones en el disco duro ó unidad SSD, el cuál almacena información simulando ser memoria RAM cuándo esta se encuentra parcialmente llena, así se evita que se detengan los servicios de la computadora.

Este tipo de memoria se popularizó con la salida al mercado de sistemas operativos gráficos tales como MacOS de Macintosh (actualmente Apple) ó Windows de Microsoft, debido a que la memoria instalada en la computadora es regularmente insuficiente para el uso de ventanas, aunque al parecer el sistema operativo UNIX lo utilizaba de manera normal antes que sus competidores.

En los sistemas operativos Microsoft Windows Vista/Microsoft Windows 7, con el software ReadyBoost y en  Microsoft Windows XP con ayuda de algunas utilidades como EBoostr, es posible utilizar un archivo de intercambio (Swap) en memorias USB e incluso en memorias SD, MemoryStick, etc., que permiten aumentar la velocidad del equipo. Básicamente no debe ser menor a 256 MB la capacidad disponible del dispositivo, tener una velocidad alta de transmisión de datos y asignarse del siguiente modo:

a) Mínimo: (Total de RAM) + (1/2 Total de RAM)

b) Máximo: 3x(Total de RAM)

Ejemplo: Si tengo 1 GB en RAM, debo tener mínimo (1 GB + 0.5 GB)= 1.5 GB, y máximo 3x(1 GB)= 3 GB.


viernes, 22 de julio de 2016

RAM (Random Access Memory)

La sigla RAM en inglés significa "Random Access Memory" y se traduce como "Memoria de Acceso Aleatorio" o, en algunos casos, "Directo". Una memoria de este tipo es una pieza que se compone de uno o más chips y que forma parte del sistema de un ordenador o computadora.

La característica diferencial de este tipo de memoria es que se trata de una memoria volátil, es decir, que pierde sus datos cuando deja de recibir energía. Típicamente, cuando el ordenador es apagado. Así, se distingue de otras memorias, como la ROM, que tiene la propiedad de almacenar información independientemente de las condiciones de energía disponibles.

Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso secuencial) a la información de la manera más rápida posible.
Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén conectados de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres emiten una serie de sonidos que indican la ausencia de memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.

La memoria RAM, entonces, es un dispositivo que se utiliza para el manejo de datos e información permitiendo el funcionamiento del Sistema operativo y aplicaciones, una vez, apagado o interrumpido el funcionamiento del sistema, la información se pierde, ya que a menudo no se trata de archivos o datos guardados por su relevancia, sino simplemente de datos necesarios para el desempeño del software en cuestión.

Una memoria RAM puede tener diversos tamaños expresados en MegaBytes o GigaBytes y, de esta manera, permitir usos de menor o mayor nivel. Por ejemplo, la simultaneidad en el uso de varios programas, o bien, el incremeneto en la velocidad de conexión o de funcionamiento del ordenador.

sábado, 16 de julio de 2016

Memoria RAM

La expresión Memoria RAM se utiliza frecuentemente para describir a los módulos de memoria utilizados en las computadoras personales y servidores.

La RAM es solo una variedad de la memoria de acceso aleatorio: las ROM, memorias Flash, caché (SRAM), los registros en procesadores y otras unidades de procesamiento también poseen la cualidad de presentar retardos de acceso iguales para cualquier posición.

Los módulos de RAM son la presentación comercial de este tipo de memoria, que se compone de circuitos integrados soldados sobre un circuito impreso independiente, en otros dispositivos como las consolas de videojuegos, la RAM va soldada directamente sobre la placa principal.

La memoria y el procesador son sin duda los dispositivos más importantes de cualquier PC. Mientras el micro es el cerebro encargado de ejecutar las aplicaciones e interactuar con toda clase de periféricos, la memoria es la encargada de guardar y almacenar toda la información con la que trabajas.

El procesador por desgracia no puede contener en su interior todos los datos con los que estás trabajando en un determinado instante. Por ello necesitas de una memoria que se encargue de tenerlos todos preparados y dispuestos para actuar sobre ellos.


Si lo miramos desde el punto de vista físico tenemos los siguientes dispositivos:

El disco duro es el elemento del sistema de memoria de un PC más alejado del procesador. Esto significa que es el de mayor tamaño pero también el que se tarda más tiempo en acceder. Se encarga por tanto de almacenar la información aunque el equipo este desconectado. Los discos duros SSD están muy de moda debido a que son más silenciosos, rápidos y consumen menos que los convencionales, su único inconveniente es que son más caros.

El disco duro es muy grande pero demasiado lento como para almacenar los datos y programas con los que estas trabajando. Así la memoria RAM es aquella donde se encuentran los programas y datos que usas en un determinado momento. En ciertas operaciones la memoria RAM es más de mil veces más rápida que un disco duro.

Los siguientes elementos los encontramos integrados dentro del procesador:

La memoria RAM es muy rápida pero el procesador muchas veces necesita más datos de los que esta es capaz de darle. Lo puedes ver como un glotón que necesita ser alimentado con datos e instrucciones. Para acelerar el acceso a la memoria RAM se usa la Memoria Cache. Esta se encuentra estructurada en niveles.

En los registros donde se realizan finalmente las operaciones. Su tamaño es por tanto el más reducido y podemos hablar de tiempo de acceso inmediato.

domingo, 3 de julio de 2016

Sistema Básico de Entrada y Salida


En informática, Basic Input Output System, también conocido por su acrónimo BIOS ( en español "sistema básico de entrada y salida"), también conocido como "System BIOS", "ROM BIOS" o "PC BIOS", es un estándar de facto que define la interfaz de firmware para computadoras IBM PC compatibles. El nombre se originó en 1975, en el Basic Input/Output System usado por el sistema operativo CP/M. El firmware BIOS es instalado dentro de la computadora personal (PC), y es el primer programa que se ejecuta cuando se enciende la computadora. El POST, acrónimo inglés de Power On Self Test, o la auto-prueba de encendido es un proceso de verificación e inicialización de los componentes de entrada y salida en un sistema computacional que se encarga de configurar y diagnosticar el estado del hardware.

Dentro de la memoria ROM se encuentran tres pequeños programas: el BIOS, el SETUP y el POST. El BIOS (Basic Input Output System o Sistema Básico de Entradas y Salidas) es un programa de sólo lectura cuya función principal es actuar como intermediario entre los recursos del Hardware y Software. La función del POST es realizar una prueba inicial del Hardware crítico del sistema. Cuando se presiona el botón de encendido de un PC, el primer proceso que se lleva a cabo es el POST. Si todo funciona correctamente, el sistema sigue su proceso habitual que culmina con la carga del sistema operativo. Si por el contrario, algunos de los dispositivos críticos no pasa la prueba POST, el sistema se detiene en esa instancia e informa a través de un unos mensajes sonoros cuál es el error, el BIOS tiene un sistemas de pitidos (beeps) para avisar al usuario que tipo de problema hay. El SETUP es una porción de software que a diferencia de sus compañeros, podemos entrar en su configuración y realizar cambios en sus parámetros con la intención de optimizar el funcionamiento del hardware. El menú principal del SETUP está dividido en secciones, en las que se agrupan las opciones de acuerdo con los componentes que se pueden modificar.


El propósito fundamental del BIOS es iniciar y probar el hardware del sistema y cargar un gestor de arranque o un sistema operativo desde un dispositivo de almacenamiento de datos. Además, el BIOS provee una capa de abstracción para el hardware, por ejemplo, que consiste en una vía para que los programas de aplicaciones y los sistemas operativos interactúen con el teclado, el monitor y otros dispositivos de entrada/salida. Las variaciones que ocurren en el hardware del sistema quedan ocultos por el BIOS, ya que los programas usan servicios de BIOS en lugar de acceder directamente al hardware. Los sistemas operativos modernos ignoran la capa de abstracción provista por el BIOS y acceden al hardware directamente.

El software del BIOS es almacenado en un circuito integrado de memoria ROM no-volátil en la placa base. Está específicamente diseñado para trabajar con cada modelo de computadora en particular, interconectando con diversos dispositivos que componen el conjunto de chips complementarios del sistema. En computadores modernos, el BIOS está almacenado en una memoria flash, por lo que su contenido puede ser reescrito sin remover el circuito integrado de la placa base. Esto permite que el BIOS sea fácil de actualizar para agregar nuevas características o corregir errores, pero puede hacer que la computadora sea vulnerable a los rootkit de BIOS.

Para una referencia de placa base el fabricante puede publicar varias revisiones del BIOS, en las cuales se solucionan problemas detectados en los primeros lotes, se codifican mejores controladores o se da soporte a nuevos procesadores. Estas revisiones o actualización del BIOS pueden ser descargadas de Internet desde la pagina del fabricante, el proceso de actualización del BIOS es no esta exento de riesgos, dado que un fallo en el procedimiento conduce a que la placa base no arranque. En el caso de computadoras portátiles se recomienda tener conectado el adaptador de corriente durante el proceso de actualización. 

jueves, 23 de junio de 2016

Intel vs AMD

A nivel económico Intel resulta ser más costoso pero de muy buena calidad, sus dos procesadores son matemáticos, por lo cual para navegar o trabajar con el Pc es más rápido. La tecnología Intel se basa más que todo en el rendimiento de programas y capacidades empresariales para poder manejar gran cantidad de datos y procesarlos.

Los procesadores AMD son más económico, tiene varias versiones o series distintas, tiene un procesador matemático y uno gráfico, por lo cual es mejor para gamers, diseñadores gráficos, ingenieros y arquitectos. No es la misma calidad que el Intel, pero es muy difícil que te vaya a fallar. 


Intel es un buen procesador, usualmente es bastante rápido y poderoso. AMD también es un buen procesador, la diferencia es que el AMD es más fácil de acelerar (hacerlo correr más rápido de lo que debería), los procesadores AMD son hechos para ser acelerados.

No hay una ventaja o desventaja real, es simplemente un asunto de opinión y de qué es lo que quieras hacer con el procesador.

domingo, 19 de junio de 2016

El rendimiento del procesador

El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.

Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De todas maneras, una forma fiable de medir la potencia de un procesador es mediante la obtención de las Instrucciones por ciclo.

 
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.

Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendidendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar.


La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador casi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de vídeo.

La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.


viernes, 17 de junio de 2016

El procesador

El microprocesador (o simplemente procesador) es el circuito integrado central más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. El procesador es un microchip que se encarga de tratar los datos que se necesitan para realizar las funciones del ordenador. Para ello se vale de miles o millones de elementos llamados transistores. La combinación de estos últimos permite llevar a cabo el trabajo que tenga encomendado el chip. El procesador ejecuta programas a partir de un conjunto de instrucciones, se caracteriza por su frecuencia, es decir la velocidad con la cual ejecuta las distintas instrucciones. Esto significa que un procesador de 800 MHz puede realizar 800 millones de operaciones por segundo.


La placa madre posee una ranura en la cual se inserta el procesador y que se denomina socket del procesador o ranura. Dado que el procesador emite calor, se hace necesario disiparlo con el fin de evitar que los circuitos se derritan. Esta es la razón por la que generalmente se monta sobre un disipador térmico (también llamado ventilador o radiador), hecho de un metal conductor del calor (cobre o aluminio) a fin de ampliar la superficie de transferencia de temperatura del procesador. El disipador térmico incluye una base en contacto con el procesador y aletas para aumentar la superficie de transferencia de calor. Por lo general, el enfriador está acompañado de un ventilador para mejorar la circulación de aire y la transferencia de calor. La unidad también incluye un ventilador que expulsa el aire caliente de la carcasa, dejando entrar el aire fresco del exterior.


Los procesadores que encontrarás en el mercado son INTEL y AMD.  Los procesadores INTEL son más estables y duraderos, se calientan menos y, por lo tanto, no requieren disparadores y ventiladores grandes. La ventaja de los procesadores AMD es el precio.  INTEL ofrece un mayor rendimiento comparando micros de igual velocidad (por supuesto nos referimos a los Core 2 Duo y superiores, en el resto de la gama es al contrario), pero sólo cuando se le exige el máximo, ya que las diferencias en general no son demasiado altas y se salen de las prestaciones que va a necesitar el usuario medio. Lo cierto es que este extra de rendimiento nos cuesta un dinero (bastante), que es al final lo que debemos decidir, si para nuestras necesidades nos compensa ese desembolso extra.

miércoles, 15 de junio de 2016

Componentes de la placa base


El chipset es un circuito electrónico cuya función consiste en coordinar la transferencia de datos entre los distintos componentes del ordenador (incluso el procesador y la memoria). Teniendo en cuenta que el chipset está integrado a la placa madre, resulta de suma importancia elegir una placa madre que incluya un chipset reciente para maximizar la capacidad de actualización del ordenador.

Algunos chipsets pueden incluir un chip de gráficos o de audio, lo que significa que no es necesario instalar una tarjeta gráfica o de sonido. Sin embargo, en algunos casos se recomienda desactivarlas (cuando esto sea posible) en la configuración del BIOS e instalar tarjetas de expansión de alta calidad en las ranuras apropiadas.

El reloj en tiempo real (o RTC) es un circuito cuya función es la de sincronizar las señales del sistema. Está constituido por un cristal que, cuando vibra, emite pulsos (denominados pulsos de temporizador) para mantener los elementos del sistema funcionando al mismo tiempo. La frecuencia del temporizador (expresada en MHz) no es más que el número de veces que el cristal vibra por segundo, es decir, el número de pulsos de temporizador por segundo. Cuanto más alta sea la frecuencia, mayor será la cantidad de información que el sistema pueda procesar.


Cuando se apaga el ordenador, la fuente de alimentación deja inmediatamente de proporcionar electricidad a la placa madre. Al encender nuevamente el ordenador, el sistema continúa en hora. Un circuito electrónico denominado CMOS (Semiconductor de óxido metálico complementario), también llamado BIOS CMOS, conserva algunos datos del sistema, como la hora, la fecha del sistema y algunas configuraciones esenciales del sistema.

El CMOS se alimenta de manera continua gracias a una pila (pila tipo botón) o bien a una pila ubicada en la placa madre. La información sobre el hardware en el ordenador (como el número de pistas o sectores en cada disco duro) se almacena directamente en el CMOS. Como el CMOS es un tipo de almacenamiento lento, en algunos casos, ciertos sistemas suelen proceder al copiado del contenido del CMOS en la memoria RAM (almacenamiento rápido); el término "memoria shadow" se utiliza para describir este proceso de copiado de información en la memoria RAM.

El BIOS es un chip programado que está inserto en la placa base. Este da instrucciones a la memoria, el teclado, la pantalla, la impresora y otros componentes periféricos. Las instrucciones del BIOS tienen como fin que los componentes periféricos del ordenador se reconozcan en el arranque y funcionen. Físicamente consiste en una superficie de material sintético en la que un circuito electrónico conecta los elementos que hay anclados en ella.


domingo, 12 de junio de 2016

La placa base o tarjeta madre

La placa base también denominada "placa base o tarjeta madre", es el elemento más importante del ordenador ya que en ella se conectan todos los demás aparatos y dispositivos integrados en un solo circuito impreso.

 

La placa madre es el concentrador que se utiliza para conectar todos los componentes esenciales del ordenador. Como su nombre lo indica, la placa madre funciona como una placa "materna", que toma la forma de un gran circuito impreso con conectores para tarjetas de expansión, módulos de memoria, el procesador, etc.

Características:
Existen muchas maneras de describir una placa madre, en especial las siguientes:
La placa madre contiene un cierto número de componentes integrados, lo que significa a su vez que éstos se hallan integrados a su circuito impreso:
De esta manera, las placas madre recientes incluyen, por lo general, numerosos dispositivos multimedia y de red integrados que pueden ser desactivados si es necesario:
  •     Tarjeta de red integrada;
  •     Tarjeta gráfica integrada;
  •     Tarjeta de sonido integrada;
  •     Controladores de discos duros actualizados.

viernes, 10 de junio de 2016

Diferencias entre fuentes de poder AT y ATX

A como mencionamos antes el factor de forma AT (Advanced Technology) es el formato de placa base empleado por el IBM AT y sus clones en formato sobremesa completo y torre completo. Su tamaño era de 12 pulgadas (305 mm) de ancho x 11-13 pulgadas de profundidad. Fue lanzado al mercado en 1984. Este formato fue el primer intento exitoso de estandarización para las formas de placas base; antes de él, cada fabricante producía sus PC de formas diferentes haciendo casi imposible realizar intercambios de partes, actualizaciones de hardware y otras operaciones que hoy son comunes.


Si bien este estándar representó un gran avance sobre las plataformas propietarias que producía cada fabricante, con el tiempo fueron descubiertas varias falencias que hicieron necesario que se reemplazara. Su gran tamaño dificultaba la introducción de nuevas unidades de disco. Además su conector con la fuente de alimentación inducía fácilmente al error siendo numerosos los casos de gente que quemaba la placa al conectar indebidamente los dos juegos de cables (pese a contar con un código de color para situar 4 cables negros en la zona central). El conector de teclado es el mismo DIN 5 del IBM PC original.


La principal diferencia entre la fuente de poder AT y la ATX esta en la mejora de arquitectura: el modo de alimentación de la placa madre, la gestión, rendimiento y gasto de energía. Las fuentes de poder ATX son más seguras, dado que las fuentes de poder AT se apagan sólo al presionar el botón de apagar, mientras que las fuentes de poder ATX se apagan cuando la placa madre y el sistema operativo lo deciden. Las mejoras en arquitectura representaron cambios notables en la posición de las piezas del hardware así como nuevas medidas (distancias) entre los diferentes componentes internos del gabinete. Si bien no es un cambio de las ATX, con la llegada de estas comienzan a usarse las memorias SDRAM, el slot AGP para tarjetas gráficas y el estándar PS/2.


En 1985 IBM introdujo Baby-AT, más pequeño y barato que AT. Pronto todos los fabricantes cambiaron a esta variante. Sin embargo las mismas especificaciones de este estándar hacían muy difícil seguir con el proceso de miniaturización, por lo que en 1995, Intel presentó el estándar ATX, el cual era compatible con el nuevo procesador Pentium.

En 1997 ATX dejó atrás a AT, pasando a ser el nuevo estándar más popular.

domingo, 5 de junio de 2016

Factor de forma


Factor de forma son unos estándares que definen algunas características físicas de las placas base para computadoras personales.

Una computadora personal se compone de diversas piezas independientes entre sí. Por ejemplo, la placa base, la carcasa, la fuente de alimentación, etc. Cada uno de estos componentes es proporcionado por un fabricante independiente. Si no existiera un acuerdo mínimo entre estos fabricantes, no sería posible la interoperabilidad de estos componentes. Por ejemplo, una placa base podría no entrar físicamente en la carcasa, o el enchufe de una fuente de alimentación podría ser incompatible con el correspondiente conector de la placa base.

Un form factor define características muy básicas de una placa base para que pueda integrarse en el resto de la computadora, al menos, física y eléctricamente. Desde luego, esto no es suficiente para garantizar la interconexión de dos componentes, pero es el mínimo necesario.


Las características definidas en un form factor son:
  • La forma de la placa base: cuadrada o rectangular.
  • Sus dimensiones físicas exactas: ancho y largo (en el caso de las placas base esta última dimensión se asimila con el término "profundidad", que va desde el "borde frontal" al borde de los conectores externos de E/S o "borde trasero").   
  • La posición de los anclajes. Es decir, las coordenadas donde se sitúan los tornillos.
  • Las áreas donde se sitúan ciertos componentes. En concreto, las ranuras de expansión y los conectores de la parte trasera I/O S (para teclado, ratón, usb, etc.).
  • La forma física del conector de la fuente de alimentación.
  • Las conexiones eléctricas de la fuente de alimentación, es decir, cuántos cables requiere la placa base de la fuente de alimentación, sus voltajes y su función.

Hasta la fecha se han definido (y comercializado) diversos estándares de form factor. Éstos evolucionan a medida que los componentes tienen más requerimientos de interoperabilidad. Los más importantes son:


viernes, 3 de junio de 2016

Especificación de fuentes de poder


Una especificación fundamental de las fuentes de poder o alimentación es el rendimiento, que se define como la potencia total de salida entre la potencia activa de entrada. Como se ha dicho antes, las fuentes conmutadas son mejores en este aspecto.

El factor de potencia es la potencia activa entre la potencia aparente de entrada. Es una medida de la calidad de la corriente.

La fuente debe mantener la tensión de salida al voltaje solicitado independientemente de las oscilaciones de la línea, regulación de línea o de la carga requerida por el circuito, regulación de carga.


Entre las fuentes de alimentación alternas, tenemos aquellas en donde la potencia que se entrega a la carga está siendo controlada por transistores, los cuales son controlados en fase para poder entregar la potencia requerida a la carga.

Otro tipo de alimentación de fuentes alternas, catalogadas como especiales son aquellas en donde la frecuencia es variada, manteniendo la amplitud de la tensión logrando un efecto de fuente variable en casos como motores y transformadores de tensión.

domingo, 29 de mayo de 2016

Clasificación de fuentes de poder


Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.

Fuentes de alimentación lineales

Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.

En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no es más que un sistema de control a lazo cerrado “realimentado” que sobre la base de la salida del circuito ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento regulador (transistor), ya que se comporta como una resistencia variable. A la salida de esta etapa a fin de conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador. Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta unos puntos concretos a la hora de decidir las características del transformador.


Fuentes de alimentación conmutadas

Una fuente conmutada es un dispositivo electrónico que transforma la energía eléctrica mediante transistores en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias (20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados (con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son más complejas y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes.

Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y salida.

La regulación se obtiene con el conmutador, normalmente un circuito PWM (pulse with modulation) que cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.

Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.

viernes, 27 de mayo de 2016

Tipos de fuentes de poder o alimentación


En concreto podemos determinar que existen dos tipos básicos de fuentes de poder. Una de ellas es la llamada AT (Advanced Technology), que tiene una mayor antigüedad pues data de la década de los años 80, y luego está la ATX (Advanced Technology Extended).

La primera de las citadas se instala en lo que es el gabinete del ordenador y su misión es transformar lo que es la corriente alterna que llega desde lo que es la línea eléctrica en corriente directa. No obstante, también tiene entre sus objetivos el proteger al sistema de las posibles subidas de voltaje o el suministrar a los dispositivos de aquel toda la cantidad de energía que necesiten para funcionar. Además de fuente AT también es conocida como fuente analógica, fuente de alimentación AT o fuente de encendido mecánico. Su encendido mecánico y su seguridad son sus dos principales señas de identidad.


La ATX, por su parte, podemos decir que es la segunda generación de fuentes para ordenador y en concreto se diseñó para aquellos que estén dotados con microprocesador Intel Pentium MMX.

Las mismas funciones que su antecesora son las que desarrolla dicha fuente de poder que se caracteriza por ser de encendido digital, por contar con un interruptor que se dedica a evitar lo que es el consumo innecesario durante el estado de Stand By y también ofrece la posibilidad de ser perfectamente apto para lo que son los equipos que están dotados con microprocesadores más modernos.

Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.


domingo, 22 de mayo de 2016

La fuente de poder o alimentación


La Fuente de poder es un componente del computador que se encarga de transformar una corriente eléctrica alterna en una corriente eléctrica continua transmitiendo la corriente eléctrica imprescindible y necesaria a los ordenadores para el buen funcionamiento y protección de estos.

En electrónica, la fuente de alimentación o fuente de poder es el dispositivo que convierte la corriente alterna (CA), en una o varias corrientes continuas (CC), que alimentan los distintos circuitos del aparato electrónico al que se conecta (computadora, televisor, impresora, router, etc.).

En inglés se conoce como power supply unit (PSU), que literalmente traducido significa: unidad de fuente de alimentación, refiriéndose a la fuente de energía eléctrica.


La fuente de poder, por lo tanto, puede describirse como una fuente de tipo eléctrico que logra transmitir corriente eléctrica por la generación de una diferencia de potencial entre sus bornes. Se desarrolla en base a una fuente ideal, un concepto contemplado por la teoría de circuitos que permite describir y entender el comportamiento de las piezas electrónicas y los circuitos reales.

La fuente de alimentación tiene el propósito de transformar la tensión alterna de la red industrial en una tensión casi continua. Para lograrlo, aprovecha las utilidades de un rectificador, de fusibles y de otros elementos que hacen posible la recepción de la electricidad y permiten regularla, filtrarla y adaptarla a los requerimientos específicos del equipo informático.

Resulta fundamental mantener limpia a la fuente de poder; caso contrario, el polvo acumulado impedirá la salida de aire. Al elevarse la temperatura, la fuente puede sufrir un recalentamiento y quemarse, un inconveniente que la hará dejar de funcionar. Cabe resaltar que los fallos en la fuente de poder pueden perjudicar a otros elementos de la computadora, como el caso de la placa madre o la placa de video.

domingo, 15 de mayo de 2016

El encendido de la computadora.


Al momento que presionamos el botón de encendido hasta que comenzamos a hacer uso de la Pc, esta realiza una serie de procesos que muchas veces pasan inadvertidos. Pero que estos son de suma importancia para diagnosticar y dar solución a los problemas que, generalmente en esta etapa, hacen que el equipo no encienda.

El inico fisico es el que produce por los componentes del hardware. Se trata de inicio principal, dado que se requiere que todos esten conectados en forma correcta para cumplir su función. Para esto, la tarjeta madre se valen de revisiones automaticas y una vez que se realiza el inicio fisico correpondiente se pasa al inicio lógico que corresponde al arranque del Sistema Operativo.


En primer lugar debes de conciderar la conexión electrica de la Pc. Si esta correctamente conectada, es posible que entre el toma corriente que recibe la energía y el equipo haya un punto intermedio: el estabilizador de tensión (regulador de voltaje) y en algunos casos una Ups. Luego el cable de energía lleva la electricidad hasta la fuente del equipo, precisamente la encargada de distribuirla al resto de los componentes de la computadora, como la tarjeta madre, el disco duro y las unidades ópticas, entre otras. Tambien es necesario conocer como se vincula el botón de encendido con todo el sistema. Finalmente la tarjeta madre o placa base distribuye la tensión eléctrica recibida a las placas, al procesador y los modulos de memoria RAM, los que al recibir energía pueden almacenar datos.

Si la computadora no enciende, es decir, si ninguna luz prende, ni se oye ruido en su interior, es muy probable que la falla se deba a un inconveniente eléctrico.

martes, 3 de mayo de 2016

Tipos de soporte


En general, el servicio de soporte técnico, resuelve los problemas que se presentan, en cuanto equipamiento pueda existir, utilizando herramientas e instrumentos de medición, realiza trabajos específicos en cada una de las especialidades que puedan existir. El soporte técnico se puede dar por distintos tipos de medio, incluyendo el correo electrónico, chat, software de aplicación, fax, y personal, aunque el más común es el teléfono.

Soporte técnico vía telefónica: por lo general se brinda este servicio para averías físicas simples(cables mal conectados) o problemas de software simple (configuraciones básicas), y se trata de recibir indicaciones de un técnico por vía telefónica.

Soporte técnico vía asistencia técnica personal: es mas recomendado para problemas de hardware complejos que necesariamente se necesita la presencia de un técnico. 


Soporte técnico vía correo electrónico: consiste en que un personal capacitado te envié un correo electrónico con información, gráficos e instrucciones para solucionar algún inconveniente que hemos reportado previamente.

Soporte técnico vía  asistencia remota: es recomendado para problemas con respecto a configuraciones, instalación, desinstalación de programas o aplicaciones, todo lo que tenga que ver con la parte lógica (software) de la Pc.

En los últimos años hay una tendencia a la prestación de soporte técnico remoto, donde un técnico se conecta al ordenador mediante una aplicación de conexión remota. 

domingo, 1 de mayo de 2016

Soporte técnico


El soporte es la cualidad de contar con apoyo en determinada área. El soporte técnico, soporte técnico telefónico, o simplemente servicio de asistencia es un técnico de mantenimiento informático que debe asistir a los usuarios a distancia para solucionar los problemas con los que se encuentran al usar herramientas informáticas, especialmente cuando la máquina no funciona. Este servicio se brinda en forma remota (generalmente por teléfono). Cuando un técnico de soporte trabaja en un centro de atención al cliente (también conocido como departamento de soporte técnico) puede asistir a clientes de compañías diferentes.

Usualmente, el técnico de soportes sólo se ocupa de problemas de "nivel 1". Esto significa que anota el nombre de la persona que llama y el problema que tiene. Luego, ingresa estos datos en la base de datos para consultas. Con la ayuda de una base de conocimientos en la que aparecen las preguntas y respuestas más frecuentes, realiza un diagnóstico y trata de encontrar una solución dentro de un plazo estipulado por el empleador. Si el técnico tarda demasiado en resolver el inconveniente o no posee la habilidad necesaria para asistir, el problema se envía a un experto cuyo trabajo es resolver problemas de "nivel 2".


De la misma manera que un técnico de mantenimiento, un técnico de soporte debe poseer habilidades técnicas reales (tanto en hardware como en software) y la capacidad de saber escuchar a los usuarios y actuar como mediador. El soporte técnico debe ser metódico y analítico y debe saber juzgar qué preguntas hacer al usuario. Asimismo, debe saber percibir el nivel de conocimiento informático del usuario para saber usar mucho o poco vocabulario técnico.

Es más, para solucionar los problemas a distancia, el técnico de soporte debe tener dominio de las herramientas de mantenimiento remoto de manera que pueda reconfigurar un equipo a distancia.

El costo del soporte puede variar. Algunas compañías ofrecen soporte gratuito limitado cuando se compra su hardware o software; otros cobran por el servicio de soporte telefónico. salas de charla, correo electrónico y algunos ofrecen contratos de soporte.

viernes, 29 de abril de 2016

¿Qué es el servicio técnico?


El servicio técnico es el conjunto de acciones realizadas por uno o varios especialistas para prevenir y/o solucionar problemas de una variedad de equipos. Es justamente el tipo de equipo el que define el área del servicio, y por lo tanto la especialidad de los técnicos. Es recomendable contar con un servicio confiable y oportuno, para no discontinuar la capacidad operativa que se basa en los equipos. En la actualidad el servicio técnico está altamente informatizado y vinculado a las telecomunicaciones. En el sector de la informática existen muchas empresas que ya cuentan con un servicio de asistencia remota para mediante el acceso remoto obtener IT support y esto representa una ventaja técnica que ayuda a mejorar la eficiencia y reducir costos.

El trabajo de los servicios técnicos anteriormente requería la presencia física del técnico en el lugar donde se encuentran los equipos, donde este realizaba su trabajo de soporte tecnico, ya sea mantenimiento preventivo o correctivo. Hoy en día, salvo casos extremos, los servicios técnicos implementan soluciones de soporte al cliente de forma remota, basados en Internet y las telecomunicaciones, auxiliados por software de acceso remoto. Es oportuno mencionar que este tipo de servicio técnico está fuertemente consolidado en el área informática mediante el uso del escritorio remoto, que permiten al técnico trabajar desde casa u otra localización, a través del Internet.


El servicio técnico por lo general se brinda con motivo de obtener un ingreso económico y lo ofrecen de manera formal muchas empresas que dan una garantía con respecto al servicio brindado o también lo pueden brindar personas naturales capacitadas que aunque es un poco menos confiable pero también mas económico.

En los inicios este servicio lo brindaban únicamente empresas ya que no todas las personas tenían la capacidad de adquirir computadoras por que eran muy caras, pero con el tiempo al disminuir el costo de las computadoras este servicio se fue extendiendo y ahora por las necesidades de la gente lo brindan como lo mencione antes hasta una persona natural capacitada. La evolución del soporte técnico informático con respecto a la complejidad  va de la mano junto con la evolución de los ordenadores, programas y dispositivos informáticos por lo cual se necesita de un personal capacitado para atender sus necesidades.

miércoles, 27 de abril de 2016

¿Qué es el soporte informático?


El soporte informático es el servicio mediante el cual los especialistas en apoyo informático proporcionan asistencia técnica, soporte remoto y asesoramiento a individuos, empresas u organizaciones que dependen de la tecnología de la información. Generalmente estos soportes informáticos son provistos por las diversas compañías que brindan servicios cibernéticos, aunque cabe destacar que existen muchos proveedores y soluciones para obtener este tipo de ayuda.

Se reconocen dos tipos de soporte informático:

Encontramos los especialistas en el servicio técnico informático que brindan su ayuda físicamente. Responden a los usuarios de sus organizaciones y ejecutan automáticamente los programas de diagnóstico para resolver problemas. Además, pueden escribir manuales y capacitar en el uso de hardware y software nuevos mediante el soporte informático. Estos trabajadores, también, supervisan el funcionamiento diario de los sistemas informáticos de su empresa, la resolución de problemas técnicos con redes de área local (LAN), redes de área amplia (WAN), y otros sistemas.


Por otra parte encontramos el soporte informático que se realiza a través de un programa para administración remota. En este caso, los especialistas responden a las llamadas telefónicas y/o mensajes de correo electrónico de los clientes que requieren remote PC support. Para responder estas cuestiones y prestar remote assistance deben correr el remote access software y luego que adquieran el acceso remoto pueden diagnosticar la naturaleza del problema. Asimismo, instalar, modificar, limpiar y reparar el software. Esta tarea es tan simple gracias a las aplicaciones para mostrar escritorio que permiten al técnico obtener control remoto del equipo y observar la pantalla del PC remoto con una conexión a escritorio remoto por Internet.

¿Cómo se lleva a cabo el soporte informático?

Esta tarea se lleva a cabo eficientemente mediante la asistencia remota con el empleo de soluciones para escritorio remoto. Esta forma es muy atractiva para muchas empresas, pues permite la reducción de costos de infraestructura y demás. El usuario solicita el soporte técnico de diagnóstico y reparación al especialista; y le permite el acceso remoto a su computadora. De esta manera en tan solo segundos será realizado el soporte informático. Además de que el técnico puede ver el problema a través de la opción pantalla compartida, existen formas de comunicación para que el usuario pueda explicar lo que sucede. Estos programas cuentan con herramientas que permiten realizar una vídeo llamadas o videoconferencia con audio y/o vídeo, y la forma más común sería utilizando una entrada de texto mediante el chat. Así, el usuario se pone en contacto con el técnico para solicitar el IT support. Este realiza el remote desktop support mediante las aplicaciones disponibles, de esa manera el usuario puede observar como se lleva a cabo el ejercicio de diagnóstico y reparación.