1. Introducción a la Bioinformática PDF

Title 1. Introducción a la Bioinformática
Author Alba Mosteiro
Course Bioinformática
Institution Universidad del País Vasco
Pages 13
File Size 773.7 KB
File Type PDF
Total Downloads 95
Total Views 152

Summary

Bioinformática...


Description

Bioinformática – Semana 1

Introducción a la Bioinformática: "Biological data are being produced at phenomenal rate. As a result of this, computers have become indispensable in biological research, since they can handle large quantities of data. Life itself is an information technology" "It is really important to realise about how the full diversity of life on this planet (from the simplest bacterium to the largest mammal) is captured in a linear code inside all living cells. Information about nucleic acids and proteins is the raw material of bioinformatics."

¿Qué es la Bioinformática?: En las dos últimas décadas se han producido importantes avances tecnológicos en el campo de la Biología Molecular que han generado una ingente cantidad de datos experimentales y el nacimiento de nuevas áreas de conocimiento como la genómica, la proteómica, la transcriptómica, la lipidómica, la glicómica, la metabolómica y la interactómica. Para almacenar, organizar, manejar y analizar toda esta información es necesario el uso de ordenadores. Por tanto, se puede definir la Bioinformática como el resultado de combinar la Biología con la Tecnología de la Información y de la Computación. Es una nueva área de la ciencia que utiliza métodos computacionales para responder a cuestiones biológicas. Distintas definiciones que encontramos en los libros: 1. La combinación de la biología y la tecnología de la información. Es la rama de la ciencia que se ocupa del análisis computerizado de grandes conjuntos de datos biológicos. 2. Un campo interdisciplinario que involucra a la biología, informática, matemáticas

y estadística para analizar datos de secuencia, contenido y disposición del genoma, y para predecir la función y la estructura de las macromoléculas. Tipos de datos: 1. 2. 3. 4. 5. 6.

Sequence data. Structural information. Expression data. Molecular interaction data. Mutation data. Phenotypic data.

Sus principales objetivos son: 1. Almacenar la información obtenida a partir de los resultados experimentales

Bioinformática – Semana 1 2. Realizar un análisis computerizado de los datos biológicos 3. Extraer toda la información posible con el fin de crear una perspectiva global que permita discernir los principios unificadores de la Biología. En resumen, podríamos decir que el objetivo fundamental de la bioinformática es realizar análisis computerizados de los datos biológicos almacenados (secuencias, estructuras, perfiles de expresión o rutas bioquímicas) de la cual se extraerá la máxima información para poder obtener las bases unificadoras de la Biología. ¿Para qué sirve la Bioinformática?: 1. Comprender el funcionamiento de los seres vivos. 2. Aplicar los conocimientos para mejorar la calidad de vida (para comprender y combatir enfermedades). 3. Bases de datos. 4. Mapeo genético y genómico. 5. Análisis de datos de expresión génica. 6. Buscar funciones genéticas. 7. Identificación del factor de riesgo genético. 8. Pathways, metabolic and regulatoric networks. 9. Predicción de la estructura. 10. Target identification. 11. Diseño de drogas. 12. Terapia génica. Básicamente, la Bioinformática abarca tres tipos de actividades: 1. La creación de bases de datos (BD) que almacenen, organicen y gestionen gran cantidad de datos biológicos. Cada BD debe disponer de un motor de búsqueda que permita localizar rápidamente la información. Las BD deben ser accesibles a través de Internet y contar con un diseño/interfaz intuitivo que facilite su uso. 2. El desarrollo de algoritmos y herramientas estadísticas que permitan establecer relaciones entre los datos como, por ejemplo, métodos para comparar secuencias, patrones de expresión génica o estructuras tridimensionales de proteínas. 3. El desarrollo e implementación de herramientas informáticas que permitan analizar e interpretar los datos datos con el fin de extraer conclusiones relevantes desde el punto de vista biológico (por ejemplo: métodos para la anotación de secuencias de ADN o de proteína, o métodos para predecir la estructura y/o función de una proteína). Estas herramientas pueden ser páginas web o programas informáticos que se pueden descargar e instalar en un ordenador personal. Muchos de estos programas pueden funcionar en distintos sistemas operativos como Windows, Apple, Linux o Android. Los usos más frecuentes de la Bioinformática son: 1. 2. 3. 4. 5. 6.

Búsqueda bibliográfica: PubMed. Búsqueda de secuencias de proteínas: UNIPROT-KB. Búsqueda de secuencias de genes: GenBank. Búsqueda de secuencias parecidas: BLAST. Alineamiento múltiple de secuencias: ClultalW. Búsqueda de estructuras 3D de proteínas: PDB.

Bioinformática – Semana 1

Presente, pasado y futuro:

1. Pasado: las bases de datos primarios contenían datos experimentales bastos en genómica y proteómica; lo que permitía estudiar la función y utilidad de ggenes y proteínas de manera individual. 2. Presente: las bases de datos secundarias (bases del conocimineto) contienen anotaciones sobre las secuencias nucleotídicas y proteicas: funciones, regiones… lo que promueve el entendimiento funcional a nivel molecular, celular y de organismo. 3. Futuro: se busca la representación computacional de una célula o un organismo al completo para poder entender los principios básicos de los sistemas biológicos complejos. Dogma principal de la Biología: La bioinformática aprovecha la direccionalidad de la información genética (DNA -- RNA -proteína) para conseguir predecir la estructura de una proteína a partir de la secuencia del genoma. Una vez se tiene la estructura, Gran parte de todas las conclusiones Bioinformáticas que se extraen, se basan en la presunción de que una secuencia de DNA o de una proteína determina su estructura y, a partir de ahí, conocer la función de la misma. Con ello, podría conocerse en qué ruta participa, a qué ligandos se va a utilizar, qué medicamentos disminuirían o aumentarían su funcionalidad. La bioinformática avanza en dos frentes: 1. Horizontalmente: por comparación, bien sea de funciones, secuencias, estructuras…intenta ver los denominadores comunes para intentar obtener reglas extrapolables.

Bioinformática – Semana 1 2. Verticalmente: por interpolación/inferencia, utilizar los conocimientos que ha conseguido extrapolar para predecir la estructura de una proteína utilizando su secuencia.

Ejemplo: secuencia -- droga: MLH1 es un gen humano que codifica una proteína de reparación de desapareamiento (mmr). Este gen ha sido implicado en el cáncer colorrectal no polipósico. Dada la secuencia de nucleótidos, se puede determinar la secuencia de aminoácidos de la proteína codificada. Mediante la utilización de secuencias similares se pueden encontrar homólogos en bases de datos y, en base a la similitud de secuencia, es posible modelar la estructura de la proteína humana. Finalmente, los algoritmos de acoplamiento podrían diseñar moléculas capaces de unir la estructura del modelo, permitiendo así que los ensayos bioquímicos prueben su actividad biológica en la proteína real.

Bioinformática – Semana 1 Al final, es probable que la bioinformática desaparezca, se evapore como un término relevante para describir la práctica biológica. Esto no sucederá porque el biólogo deje de usar ordenadores, sino porque el uso de los mismos y métodos bioinformáticos se volverán tan omnipresentes que no tendría sentido etiquetarlos como una práctica separada o distinta de la biología en general. Conclusiones: 1. La información está ahí, sólo hay que fijarse con un poco más de atención. 2. Siempre hay un buen motivo para que las cosas sean como son. 3. Los seres vivos actuales son el resultado de aproximadamente 3.500 millones de años de evolución: tiempo más que suficiente para optimizar la organización de sus genomas y eliminar cualquier cambio que pueda generar problemas. 4. Muchas veces, las cosas no son lo que parecen. Consejos: 1. No te creas siempre lo que te dice el programa: a menudo generan confusión y/o se equivocan. 2. No te creas siempre lo que te dicen las bases de datos. 3. No te creas siempre lo que te dicen los profesores. xD Cuando se utilizan ordenadores en biología, es fundamental comprender la diferencia entre el significado matemático y el significado biológico. Los ordenadores no hacen biología, únicamente hacen sumas. Por ello, las conclusiones de las herramientas bioinformáticas sólo serán válidas cuando se confirmen en el laboratorio.

Orígenes de la Bioinformática: Los ordenadores personales (PC) son la principal herramienta de un bioinformático, ya que son capaces de almacenar gran cantidad de datos y de procesarlos con gran rapidez. Los grandes equipos informáticos que había que utilizar antes sólo se necesitan ahora cuando hay que manejar un gran volumen de datos o cuando hay que llevar a cabo un elevado número de operaciones. Hoy en día, la mayor parte de las herramientas informáticas que vamos a necesitar están disponibles en Internet y, en muchos casos, de forma totalmente gratuita. El imparable avance de la capacidad de cálculo de los PC y la cobertura mundial que ofrece Internet han permitido que la Bioinformática sea una de las áreas de la ciencia que más está creciendo en la última década. Gracias a la Bioinformática los biólogos pueden hacer, además de los clásicos experimentos in vivo o in vitro, experimentos in silico que requieren el uso de ordenadores con chips de silicio y que ayudan a los científicos a diseñar nuevos experimentos para avanzar en sus investigaciones. Es muy importante tener claro que las conclusiones obtenidas por métodos bioinformáticos no son válidas hasta que no se confirman experimentalmente en el laboratorio. El perfil de un bioinformático: ¿Quiénes son bioinformáticos? Hoy en día consideramos bioinformáticos tanto a los científicos que manejan con destreza las herramientas bioinformáticas disponibles como a los programadores que se encargan de desarrollar métodos de análisis de datos biológicos. En el primer caso, se precisan amplios conocimientos biológicos para comprender los resultados de

Bioinformática – Semana 1 los análisis bioinformáticos y también se requiere la capacidad para escribir sencillos programas o algoritmos. En el segundo caso es necesario tener amplios conocimientos de matemáticas, estadística y programación para desarrollar nuevos algoritmos, así como una base biológica que les ayude en el diseño de las herramientas bioinformáticas. Tanto en un caso como en otro resulta esencial comprender los fundamentos biológicos y los métodos estadísticos y algoritmos en que se basan las herramientas bioinformáticas utilizadas. Estos conocimientos nos permitirán: 1. 2. 3. 4. 5.

Decidir cuál es la herramienta que hay que utilizar en cada momento Comprender cuáles son sus ventajas y sus limitaciones Aplicarla de la manera más eficaz posible Evaluar adecuadamente los resultados obtenidos Extraer las conclusiones correctas que nos ayuden a comprender una determinada cuestión biológica

Internet: La información (biológica o de cualquier otro tipo) se encuentra almacenada en multitud de ordenadores dispersos por todo el mundo. La mejor forma de acceder a esta información consiste en conectar los ordenadores entre sí, formando una red. Una red es un conjunto de ordenadores conectados entre sí de modo que puedan comunicarse compartiendo datos y recursos. Las conexiones pueden realizarse por medio de un cable, mediante líneas telefónicas, microondas o, incluso, por satélites. De este modo es posible intercambiar información entre dos usuarios remotos. La característica principal de la red es que si se desconecta uno de sus nodos se puede seguir transmitiendo información de un ordenador a otro siguiendo multitud de rutas alternativas. Las redes también se pueden conectar entre sí, dando lugar a una red mayor. Internet es una red mundial de redes de ordenadores. Internet nació a partir de un proyecto de investigación del Departamento de Defensa de los Estados Unidos denominado ARPANET que en 1962, en plena Guerra Fría, pretendía encontrar un sistema de comunicación interna entre los altos mandos que pudiese funcionar en el peor escenario bélico posible. APARNET consiguió conectar 4 ordenadores de distintas universidades, y 3 años después las conexiones llegaban de una costa a otra en EEUU. La Internet que conocemos hoy día comenzó en 1969, cuando cuatro universidades americanas se conectaron entre sí para el rápido intercambio de datos científicos. Para transferir datos a través de Internet lo primero que se hace es fraccionar la información en pequeños paquetes (unidades de información) que se envían de forma independiente. Cuando llegan a su destino, los paquetes de información se vuelven a ensamblar para recuperar el contenido original. Los procesos que permiten llevar a cabo estas operaciones se denominan protocolos TCP/IP: 1. TCP es el Protocolo de Control de la Transmisión (Transmission Control Protocol) y determina cómo se divide y se recompone la información en diversos paquetes. 2. IP es el Protocolo de Internet (Internet Protocol) y determina qué ruta deben seguir los diversos paquetes a través de la red para llegar a su destino. La filosofía de funcionamiento de Internet se basa en los conceptos de servidor y cliente. Un servidor es un ordenador que contiene la información que puede ser consultada por los usuarios. Este ordenador siempre estará encendido y conectado a la red. Una máquina cliente es aquélla que accede a los servidores en busca de información. La información se comparte

Bioinformática – Semana 1 fácilmente a través de redes, en donde los servidores almacenan datos que pueden ser compartidos por los clientes. Para acceder a Internet el ordenador necesita una conexión física (hardware) y una conexión lógica (software): 1. La conexión física puede ser un módem conectado a una tarjeta de red (Ethernet) o un router, que se puede conectar a varios ordenadores y, además, puede disponer de conexión WiFi, que no necesita cables. Hoy en día todas las conexiones se establecen a partir del ADSL. El router se puede conectar a más de un ordenador y permite conexiones inalámbricas. 2. El software de conexión a Internet lo suministra un Proveedor de Servicios de Internet (Internet Service Provider, ISP) como puede ser Telefónica, Euskaltel, Ono, etc. Muchas instituciones permiten el acceso gratuito a la red, pero los usuarios particulares deben contratar los servicios de un ISP. Cuando un ordenador se conecta a Internet se convierte en un componente más de la red. Esto significa que sus datos son accesibles y que el ordenador es susceptible de ser atacado por algún hacker. La solución consiste en instalar un cortafuegos (firewall) que evite el acceso no autorizado de un ordenador externo a nuestro PC. Además, como medida de seguridad, siempre es aconsejable tener instalado un buen programa antivirus. Otra forma de evitar el acceso no autorizado a mi ordenador consiste en utilizar una red privada virtual o VPN (Virtual Private Network). La World Wide Web (www): La www fue desarrollada en 1990 por Tim Berners-Lee en el CERN (Centre Européenne pour la Recherche Nucléaire) en Berna (Suiza) y permite visualizar documentos con contenidos multimedia (texto, imágenes, audio y video) en un formato especial denominado hipertexto (http = HyperText Transfer Protocol). El lenguaje de ordenador que permite generar este tipo de documentos se llama lenguaje HTML (HyperText Markup Language), que también fue inventado por Tim Berners-Lee en 1990. Los ficheros (o documentos) que se han generado con este lenguaje se llaman ficheros (o documentos) html o, sencillamente, páginas web y tienen la extensión .htm o, si se permiten extensiones de 4 letras, .html. En un documento html hay algunas palabras que destacan (porque están escritas con un color distinto) y que se denominan hiperenlaces. Al pinchar con el ratón en un hiperenlace el navegador nos lleva a otra parte del mismo documento o a otro documento de hipertexto alojado en el mismo ordenador o en cualquier otro conectado a Internet. Este nuevo hipertexto, a su vez, contendrá otros hiperenlaces que permitirán al usuario moverse rápidamente a través de la red para conseguir la información deseada. A este proceso se le denomina coloquialmente "navegar" por Internet y los programas que permiten hacerlo se denominan navegadores (browsers). Hoy en día hay muchos navegadores que se pueden descargar gratuitamente de la www como, por ejemplo, Internet Explorer, Microsoft Edge, Mozilla Firefox, Chrome, Safari, etc. Por tanto, podemos considerar la www (también denominada web o w3) como una gigantesca telaraña mundial constituida por millones de páginas Web conectadas entre sí mediante hiperenlaces. Llegados a este punto, es conveniente definir algunos términos que suelen utilizarse indistintamente, pero que no son equivalentes:

Bioinformática – Semana 1

1. Un servidor Web (Web server), es un ordenador permanentemente conectado a Internet que contiene las páginas Web con la información de una empresa, organización o particular. Cada servidor tiene su propia dirección IP. 2. El conjunto de páginas Web que reúne toda la información de una empresa, organización o particular se llama sitio Web (Website). Un ejemplo de sitio web: https://www.ehu.eus/ 3. El servidor Web contiene una serie de directorios organizados en forma de carpetas y subcarpetas que almacenan multitud de ficheros html. Cada fichero html es una página Web (Webpage) que puede ser leída por el navegador. Un ejemplo de página web: http://www.ehu.eus/biofisica/juanma/bioinf/ 4. Un portal Web (Web portal) es una página Web desde la que se puede acceder a múltiples sitios Web, casi siempre relacionados con una misma temática. Un ejemplo de portal: http://www.todalaprensa.com/ Muchos sitios Web de Bioinformática están alojados en varios servidores distribuidos por todo el mundo para así poder evitar cualquier cuello de botella que se cree durante el tráfico de información. Estos servidores idénticos situados en diversos lugares geográficos se denominan espejos (mirrors) y son la razón por la que ciertos sitios webs "preguntan" desde dónde nos estamos conectando. Cada ordenador conectado a Internet posee una dirección IP que adopta un formato que consta de cuatro números enteros separados por puntos (por ejemplo: 195.172.6.15). Cada servidor Web posee su propia dirección IP, al igual que cualquier ordenador conectado a la red. Puedes conocer tu IP si te conectas a la página vermiip (http://www.vermiip.es/). Al navegar por Internet cada servidor no se identifica por su dirección IP sino por otra dirección que se denomina URL (Uniform Resource Locator), ya que son más fáciles de memorizar. En Internet existen unos servidores especiales denominados DNS (Domain Name Servers) que, a partir de la URL, identifican la dirección IP del ordenador con el que me quiero conectar. El formato de una URL es: "http://dirección_de_internet", donde "http" hace referencia al protocolo de comunicación que opera en la www (hypertext transfer protocol) y la "dirección_de_internet" indica qué servidor se quiere consultar. Un ejemplo de dirección URL es http://www.elcorreo.com/. Cuando se trata de un servidor seguro, la dirección URL varía ligeramente y, en vez de http, utiliza https. Un ejemplo de servidor seguro es el de la UPV-EHU: https://www.ehu.eus/es/ Un servidor puede albergar numerosos ficheros que, normalmente, se organizan en carpetas y subcarpetas. El funcionamiento de la www se basa en que cada documento html posee una URL única que indica la ruta que hay que seguir para llegar hasta el directorio del servidor que contiene ese fichero. El formato típico de este tipo de URL es “http://dirección_de_internet/carpeta/subcarpeta/documento.htm”. Un ejemplo de dirección URL de una página web es: http://www.ehu.eus/biofisica/juanma/bioinf/ Cuando se navega por Internet, algunas páginas se descargan con más rapidez que otras. Eso depende de su contenido (si tienen muchas imágenes, animaciones o videos, tardarán más en descargarse que si sólo tienen texto), de la hora del día (las conexiones con los Estados Unidos van más rápido por la mañana que por la tarde, porque cuando en Europa se empieza a trabajar,

Bioinformá...


Similar Free PDFs