50
Introduccin al diseæo racional de fÆrmacos JULIO CSAR ESCALONA ARRAnz RAMN CARRASCO VELAR JUAN ALEXANDER PADRN GARC˝A

Introduccion al diseño racional de farmacos

Embed Size (px)

Citation preview

Page 1: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

JULIO CÉSAR ESCALONA ARRAnz RAMÓN CARRASCO VELAR

JUAN ALEXANDER PADRÓN GARCÍA

Page 2: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

Page 3: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

Julio César Escalona Arranz

Ramón Carrasco Velar

Juan Alexander Padrón García

Todas las universidades en una: EDUNIV

Page 4: Introduccion al diseño racional de farmacos

615.19-Esc-D

Diseño racional de fármacos / Julio César Escalona Arranz, Ramón Carrasco Velar y Juan Alexander Padrón García. -- Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1. 45 pág.

1. Escalona Arranz, J. C.

2. Carrasco Velar, R.

3. Padrón García, J. A.

4. Química Farmacéutica

Edición: Dr. C. Raúl G. Torricella Morales

Corrección: Luz María Rodríguez Cabral

Ministerio de Educación Superior de la República de Cuba, 2008 Editorial Universitaria, 2008

La Editorial Universitaria publica bajo licencia Creative Commons de tipo Reconocimiento No Comercial Sin Obra Derivada, se permite su copia y distribución por cualquier medio siempre que mantenga el reconocimiento de sus autores, no haga uso comercial de las obras y no realice ninguna modificación de ellas. La licencia completa puede consultarse en:

http://creativecommons.org/licenses/by-nc-nd/2.5/ar/legalcode ISBN 978-959-16-0647-1 Editorial Universitaria Calle 23 entre F y G, No. 564 El Vedado, Ciudad de La Habana Cuba CP 10400 e-mail: [email protected] Sitio Web: http://revistas.mes.edu.cu

Page 5: Introduccion al diseño racional de farmacos

Nota a la Edición

El presente texto surge como resultado directo de los trabajos realizados en la tesis: Nuevos descriptores atómicos y moleculares para estudios de estructura-acitividad. Aplicaciones, de Ramón Carrasco Velar. El trabajo directo con los alumnos y el conocimiento de la necesidad de aprendizaje de los mismos ha llevado a los autores a elaborar este libro, el cual constituye una herramienta para quienes pretendan adentrarse en el campo del diseño de fármacos con la ayuda de la computador. Espero que les sea de utilidad.

El Editor

Page 6: Introduccion al diseño racional de farmacos

Índice INTRODUCCION 2 CAPÍTULO I: DISEÑO DE FARMACOS. METODOS TRADICIONALES 4 I.1 CONSIDERACIONES GENERALES I.2 METODOS VARIACIONALES CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR COMPUTADORAS 12 II.1 METODOS DE CÁLCULO

II.2 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO DE NUEVOS FARMACOS

II.3 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS

II.4. DESCRIPTORES MOLECULARES O INDICES 38

II.5 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS DEL DISEÑO DE FÁRMACOS ASISTIDO POR COMPUTADORAS 45

Page 7: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

2

INTRODUCCION

La historia del medicamento se remonta a los orígenes de la sociedad humana. Desde los primeros tiempos el hombre ha acudido a la naturaleza para obtener sustancias que, o bien le ayudaran a paliar su dolor, los síntomas de sus enfermedades... o bien le facilitaran la obtención del alimento (veneno para la caza), sus relaciones sociales y religiosas (estimulantes y alucinógenos), etc. Esta circunstancia ha permitido disponer de una amplia información, que sometida a la observación atenta y al estudio crítico, ha dado lugar al planteamiento de ideas que, debidamente desarrolladas, han llevado a la obtención de nuevos medicamentos, de sustancias líderes. Esta historia previa es la causa de que en la actualidad, el modelo de aproximadamente la mitad de los productos de que se dispone sea de origen natural. Modelos que, obtenidos a partir de un organismo vivo, han sufrido diferentes modificaciones en el laboratorio, encaminadas a obtener moléculas más potentes y menos tóxicas que las originales, las cuales en realidad no habían sido diseñadas para un tratamiento específico. El descubrimiento de un nuevo medicamento y su desarrollo posterior, son dos fases que condicionan el logro de un nuevo producto, útil en la terapéutica. Se considera, de manera general, que el descubrimiento comprende toda la fase necesaria para que podamos asegurar que el compuesto tiene un perfil deseable de actividad; comprende desde la síntesis, el aislamiento de la fuente natural, o la obtención biotecnológica y toda la fase preclínica, incluida la toxicología; de manera tal que nos confirmen que el compuesto es aceptable en cuanto eficacia y seguridad para su ensayo en seres humanos. Comprende en un sentido más amplio, un gran conjunto de actos que culminan en la utilización terapéutica de un nuevo medicamento (Figura1). Esta fase de descubrimiento, o sea, desde la obtención hasta la primera aplicación en humanos, se estima que dura aproximadamente 42,6 meses (3,55 años) como promedio, en aquellos países y transnacionales farmacéuticas con una amplia infraestructura investigativa. En países con un nivel menor de desarrollo, esta fase alcanza aproximadamente unos 5-6 años. La fase de desarrollo comprende la de los estudios clínicos y la del registro farmacéutico, y se estima que duren entre 68.6 meses y 30.3 meses respectivamente. Todo este largo proceso, desde su obtención hasta su registro comprende un total de 11.8 años de investigación, con un costo promedio de 231 millones de dólares por cada nuevo medicamento que salga al mercado. Lo más alarmante es que sólo una de cada 10 000 moléculas ensayadas pasa a la fase de desarrollo, una de cada 100 000 supera los ensayos clínicos y logra registrarse y sólo 3 de cada 10 nuevos medicamentos registrados recupera su inversión inicial. Esto genera una triste realidad, por cada millón de moléculas que se inician en esta larga cadena para la obtención de un nuevo medicamento, sólo tres recuperan la inversión inicial. Por tal motivo el diseño racional de fármacos, constituye una herramienta casi indispensable en el desarrollo actual de nuevos medicamentos, contribuyendo a un aumento de las posibilidades de éxitos y a un decrecimiento de los costos.

Page 8: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

3

Figura1. Fases necesarias para la generación de un nuevo medicamento.

Obtención y caracterización química del producto.

Ensayos Preclínicos

Definición del lugar y del mecanismo de acción

Desarrollo de la formulación

Estudio de tolerancia Estudio de toxicidad

Estudios de toxicidad subaguda en dos especies

Estudios suplementarios de toxicidad aguda (otras vías y especies)

Teratogenicidad (dos especies)

Informe final de los efectos

Desarrollo de métodos para la determinación de la sustancia en el material biológico

Farmacocinética y metabolización (Modelos animales)

Preparación Farmacéutica

A veces, estudios toxicológicos en terceras especies.

Estudios de tolerancia local

Farmacología general de la sustancia

Espectro de actividad

Efectos secundarios

Farmaco-dinámica

Técnicas estandarizadas

Técnicas comparadas

Propuesta de dosis y niveles de dosificación

Estudios microbiológicos

adicionales

INICIO DE LA FARMACOLOGÍA

Page 9: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

4

CAPÍTULO I: DISEÑO DE FARMACOS. METODOS TRADICIONALES

I.1 CONSIDERACIONES GENERALES

El desarrollo de medicamentos cada vez más seguros, adecuados, específicos y efectivos en el tratamiento de enfermedades, es una tarea que requiere del esfuerzo coordinado e inteligente de un elevado números de profesionales de distinta formación y dedicación, en la que la capacidad de deducción, la institución y en muchos casos, la suerte, han jugado un papel fundamental. Reconociendo la importante contribución del azar en el resultado positivo de este esfuerzo, es preciso matizar que su base está sólidamente anclada en un diseño inteligente y racional ya que si sólo se acude al azar, es poco probable obtener medicamentos eficaces y seguros. Si se conoce la base biológica de una enfermedad o de un desarreglo metabólico, es posible diseñar un medicamento utilizando un mecanismo de aproximación al proceso patológico. Cuando se conoce este proceso en su base molecular y se pueden definir las moléculas implicadas en el mismo, es posible diseñar medicamentos que interactúen con la molécula responsable, de tal forma que la modifique y se modifique así mismo la patología. Para conocer a profundidad el proceso fisiológico, es necesario conocer la estructura tridimensional de la(s) molécula(s) objetivo. Esto es posible pocas veces, sobre todo por la dificultad de obtener los receptores en estado cristalino. Los métodos más utilizados en este sentido son la Resonancia Magnética Nuclear, la cristalografía de rayos X y los cálculos teóricos de las fuerzas que mantienen la configuración de un sistema, ya sea por mecánica molecular o mecánica cuántica. Todo esto provoca, que los especialistas que tomarán a la química farmacéutica como profesión dentro del área del conocimiento científico, deberán no sólo especializarse en los aspectos relacionados con la síntesis y la estructura química, sino que tendrán que ser capaces de dominar el conjunto de ciencias biológicas afines, que se encuentran en la interface del descubrimiento y el desarrollo de un nuevo fármaco. El encabezamiento de una encuesta realizada a los químicos farmacéuticos de las principales industrias farmacéuticas del mundo en 1995, comenzaba con la frase. Los químicos farmacéuticos involucrados en descubrimiento de los nuevos fármacos deben ser sobresalientes químicos en la síntesis orgánica y comprender las aproximaciones modernas al análisis de la relación estructura-actividad, además de la necesidad de dominar los conceptos de la interface con otras disciplinas involucradas en el proceso del diseño de fármacos hecho que evidencia la importancia del conocimiento de las ciencias biológicas en los científicos de esta área de la ciencia1. En estas encuestas los resultados reflejaron que los trabajadores de la química farmacéutica proponen la necesidad el conocimiento de la modelación molecular, bioquímica, farmacología, fisiología y biología molecular. Los porcientos de votaciones para estas disciplinas alcanzaron valores superiores al 30 % de los encuestados.

1 Wess, G. DDT, Vol 1, No. 12, 1996.

Page 10: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

5

En tal sentido, la unión internacional de química pura y aplicada (IUPAC) publicó en ese mismo año 1995 el conjunto de cualidades que deseaban los representantes de las principales compañías farmacéuticas que tuvieran sus químicos farmacéuticos2. Estas habilidades son: ♦ Capacidad de inserción en grupos interdisciplinarios, como interface entre los científicos del área

biológica (farmacología, bioquímica, biología molecular etc.) ♦ Habilidad en la búsqueda de nuevos fármacos. ♦ Conocimiento de cómo sintetizar moléculas convenientes a ser evaluadas en ensayos biológicos. ♦ Entendimiento de las razones y la necesidad de porqué generar nuevos compuestos. ♦ Conocimiento del diseño de fármacos. ♦ Perspicacia a la hora de establecer relaciones de estructura-actividad, aún con insuficientes datos. ♦ Conocimiento de campos colaterales (fisiopatología, biología celular y genética) ♦ Rápida familiarización con las nuevas tecnologías. I.2 METODOS VARIACIONALES.

En este acápite se considerará de forma breve con algunos ejemplos, la metodología de este enfoque, las circunstancias y cadenas de hechos que llevan al descubrimiento de nuevos compuestos considerados como líderes o cabezas de serie y su posterior desarrollo, la aplicación en definitiva, de las técnicas que de forma general se conocen como Variaciones estructurales. I.2.1 Búsqueda de la cabeza de serie o compuesto líder.

Aunque en la búsqueda de una cabeza de serie se pueden aplicar varios métodos los más empleados son: • El empleo de productos activos presentes en drogas utilizadas en la medicina tradicional. • Estudio de nuevos compuestos provenientes de la síntesis química o de la biotecnología. Ambos métodos requieren de la existencia previa de una amplia batería de ensayos biológicos cuidadosamente diseñados, que permitan determinar con rapidez y de manera inequívoca la actividad biológica de los nuevos compuestos. En el caso de estudios de compuestos empleados en la medicina tradicional, es más fácil, en principio, el diseño de la prueba biológica, ya que se cuenta con información previa de la actividad prevista; se trata de comprobar simplemente de manera científica el empleo popular. Sin embargo, cuando se desconoce la posible actividad, la batería de ensayos ha de ser lo suficientemente amplia, en el intento de no perder ninguna información interesante. Lamentablemente, los costos asociados a este tipo de estudios hacen que estos se vean limitados en número y en el espectro de acciones biológicas. Otras vías de obtener un compuesto líder o cabeza de serie son:

2 Ganellin, CR., Mitscher, LA., Topolis, IG. Annu. Rep. Med. Chem., Vol 30, 1996.

Page 11: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

6

• Aislamiento de los productos responsables de una acción biológica determinada y su posterior identificación y caracterización. Esto se cumple fundamentalmente en productos naturales que no han sido reconocidos por el hombre. Ejemplos son las hormonas esteroidales, que llevaría a la identificación de los esteroides, al ácido araquidónico, que permitió el desarrollo de las prostaglandinas y tromboxanos, la obtención de potentes anticoagulantes a partir de venenos de víboras, etc.

• Detección y observación de efectos secundarios o acciones biológicas inesperadas durante el empleo de compuestos activos. Ejemplos son la acción antiagregante de la aspirina por inhibición de la ciclooxigenasa (enzimas implicadas en la síntesis de prostaglandinas), la acción diurética de sulfas antibacterianas como la acetazolamina (por inhibición de la anhidrasa carbónica) entre otros muchos ejemplos.

• Por observación del metabolismo de los compuestos. En ocasiones, algunos de los metabolitos de un fármaco presentan una actividad superior o diferente a la del propio fármaco de partida. La síntesis de sulfonamidas bacterianas en consideración del metabolismo del prontosil puede servir de ejemplo para este tipo de búsqueda.

• El análisis de la actividad biológica de productos intermedios de la síntesis de un fármaco. Tal es el caso de las tiosemicarbazonas empleadas en la síntesis del sulfatiadiazol, que provocaron una nueva estrategia para la terapia de la tuberculosis y el desarrollo de la Amiatizona.

A estas informaciones se le pueden unir, como se planteó anteriormente, las obtenidas del estudio del mecanismo de acción de los compuestos, así como consideraciones relativas a la bioquímica de la enfermedad y procesos del organismo enfermo sobre el cual van a actuar los productos. I.2.2 El desarrollo de una cabeza de serie: la variación molecular.

Una vez encontrada y definida la cabeza de serie se hace necesario la exploración de la serie por modulación de su estructura con el fin de encontrar un producto mejor. El objetivo que se propone es encontrar nuevos y mejores medicamentos con superior actividad, mejor biodisponibilidad, menor toxicidad y reacciones secundarias mínimas. O sea, en otras palabras se refiere a ¿qué voy a modificar en el compuesto líder?. Esto se conoce como Variación Molecular. En la finalidad de esta técnica se pueden distinguir: • Mejora de la potencia del líder. • Eliminación de efectos secundarios no deseados. • Potenciación de acciones secundarias deseadas, ya sea por complemento sinérgico a la acción

principal o por sí misma. Esta última se cumple en el caso del desarrollo de las sulfas diuréticas comentado con anterioridad.

• Separación de actividades en compuestos multiacción. Tiene como objetivo potenciar alguna de las acciones farmacológicas sobre las demás, o eliminar algunas de ellas en beneficio de las otras. Un ejemplo puede ser el desarrollo de antiinflamatorios esteroidales a los cuales se le busca la disminución de su efecto mineralocorticoide con un incremento de su efecto glucocorticoide.

• Combinar actividades. Se trata de reunir en una entidad actividades diferentes que puedan actuar en común frente a desórdenes asociados. Tal es el caso de los antiinflamatorios con efecto antiinflamatorio y analgésico para el tratamiento de enfermedades reumatoideas. También la

Page 12: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

7

asociación de la actividad antiagregante a la de los vasodilatadores habituales para el tratamiento de enfermedades vasculares, principalmente en ancianos.

• Modificación de la biodisponibilidad del fármaco líder. El descubrimiento de un nuevo fármaco por lo general necesita un mejoramiento en su asequibilidad biológica. Lo anterior pude explicarse con varios ejemplos:

a. Protección frente a la acción de sistemas enzimáticos: Las β-lactamasas son enzimas que

desdoblan el núcleo β-lactámico de penicilinas y cefalosporinas inactivándolas. Para eso ocurre una reacción entre el grupo hidroxilo de un resto serina de la enzima que realiza un ataque nucleofílico sobre el átomo de carbono carbonílico del anillo β-lactámico. El grupo sustituyente en la posición 7 del anillo cefalosporánico, juega un papel primordial para lograr la conformación espacial que impida la acción de las β-lactamasas. Obsérvese que la sola sustitución en R de un =N-OH por un =N-OCH3 hace que disminuya 100 veces la potencia de los compuestos, debido a una disposición espacial diferente, que en el caso de los segundos, no logra impedir el ataque de la enzima.

7

H2NS

N

N

S

R3

COO-O

CCOHNR'

R3 R E. coli S. aureus MIC MIC

-(CH)2CH2OCONH2 =NOH 0.025 0.1 -(CH)2CH2OCONH-CH3 =NOH 0.025 0.1

-(CH)2CH2OCONH2 =NOCH3 0.2 0.8 -(CH)2CH2OCONH-CH3 =NOCH3 0.2 0.8

b. Incremento en la selectividad de la acción: Las mostazas nitrogenadas y su actividad

anticancerosa pueden servir de ejemplo. La mecloroetamina (I), surge a partir del tristemente famoso gas mostaza empleado en la primera guerra mundial. Este compuesto, con el desarrollo de nuevos citostáticos se convirtió en un fármaco excesivamente tóxico, por lo que debía incrementarse la selectividad de su acción a las células tumorales. De esta manera se desarrolló el Mefalan (II), derivado de la fenilalanina.

N

CH2CH2CL

CH2CH2CLCH3

NCH2CH2CL

CH2CH2CLCH2CH

NH2

HOOC

(I) (II)

c. Modificaciones para alterar la distribución: Se utiliza cuando se desea excluir de algún

compartimento biológico al fármaco. La atropina (III) y sus sales de amonio cuaternario (IV) pueden servir de ejemplo. La formación de esta sal aumenta la hidrofilia e impide al fármaco atravesar la barrera hematoencefálica, sin alterarse las acciones anticolinérgicas periféricas.

Page 13: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

8

N

CO

CH

CH2OH

CH3

N

CO

CH

CH2OH

(CH3)2+

(III) (IV)

I.2.3 Método Variacional. Tipos de aplicación.

En este tópico se enumerarán algunas de las estrategias a seguir para aumentar la eficacia del compuesto líder. La pregunta ahora es: ¿cómo modificar el compuesto líder?. Entre las estrategias más comunes se encuentran: I.2.3.1 Sustitución bioisotérica.

En un enunciado un tanto simplista, es razonable el hecho de que compuestos con una misma actividad biológica, deban poseer también una misma estructura, o al menos puntos comunes en las partes responsables de la actividad, por lo que la sustitución de grupos con igual distribución electrónica en la última capa e igual deslocalización del orbital puede conducir a la obtención de nuevos compuestos de interés farmacológico. Este método es aplicable a las sulfas antibacterianas (V), en la cual la similitud electrónica del grupo sulfamida al grupo carboxilo del ácido p-aminobenzoico (PABA) (VI) provoca la equivocación de la bacteria. Ahora bien, no siempre las sustituciones bioisostéricas generan una equidad en cuanto a actividad. Ejemplos de este caso lo representan los antibióticos β-lactámicos, en la serie de las penemas (VII), oxapenemas (VIII) y carbapenemas (IX), en los que el cambio del átomo de azufre por el de oxígeno, aumenta la reactividad del anillo β-lactámico y lo convierte en una molécula suicida que inactiva a las β-lactamasas. La sustitución entonces del oxígeno por el etileno (CH2) disminuye nuevamente esta reactividad, incluso a valores inferiores que los de las penemas, por lo que genera moléculas menos activas, aunque aún con utilidad farmacológica. En general, el término bioisosterismo se aplica para todo el conjunto de analogías que se pueden establecer entre dos agrupaciones atómicas, incluyendo tanto elementos estéricos como electrónicos, y en general, todos cuantos sirvan para definir la estructura de una molécula.

H2N

O

OC

H2N S

O

ONHR

(V) (VI)

N

S

O

R

COOH N

O

O

R

COOH N

O

R

COOH (VII) (VIII) (IX)

Page 14: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

9

I.2.3.2 Modulación Molecular

Esta técnica consiste en variar al compuesto líder con modificaciones limitadas tanto en extensión (la molécula debe mantener las características iniciales) como en número (posiciones a modificar). Sin embargo a pesar de restringirse aparentemente las posibilidades de variación con esta técnica, es muy frecuente encontrar resultados positivos en su aplicación. De manera general existen tres formas diferentes de actuar: • Modulación: Comprende isomerización, homología, alquilación, ramificación, desalquilación,

saturación, insaturación, cambio en la posición de la insaturación, desplazamiento de una función, introducción, sustitución o eliminación de heteroátomos, introducción de sistemas cíclicos, contracción o extensión de ciclos, sustitución de ciclos, etc.

N(CH3)2

CH2

CH2

CH2N

S

CH2

CH2CH2N(CH3)2

N

Imipramina Promazina

Fig. #2. Cambios de actividad secundaria por extensión del ciclo.

• Simplificación: En ocasiones, la molécula se rompe, en un intento de encontrar qué parte o partes son responsables de la actividad biológica que se está estudiando. Con este fin se diseñan compuestos más sencillos, que contengan aisladamente los fragmentos mencionados. Es necesario aclarar que las partes responsables de la actividad no tienen necesariamente que encontrarse unidas entre sí, sino que pueden estar separadas por una serie de átomos que no forman parte decisiva en la interacción con el receptor. En estos estudios se necesita de un verdadero conocimiento de la estructura tridimensional y del comportamiento conformacional del compuesto.

NCH3

HO O OH

NCH3

HO

Morfina Levofenol

OC2H5C

NCH3

O

H3C N

CO

OC2H5

CH3

CH3

Meperidina Metadona

Fig. #3. Moléculas obtenidas por la simplificación de la molécula de morfina.

Page 15: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

10

• Unión de elementos activos: Se trata de unir en una molécula, restos que han demostrado ser

activos en otras moléculas. De este tipo de estudio se desprende una evolución en el peso relativo de las diferentes ciencias implicadas en el diseño de nuevos medicamentos. Se observa en primer lugar un aumento progresivo en la importancia que tienen los métodos biológicos como elemento de apoyo y decisión en el planteamiento de las estrategias de síntesis, llegando a ser auténticas piezas claves en muchos casos. También se deduce la necesidad de disponer de técnicas cada vez más avanzadas en el campo del análisis instrumental, como base para la elucidación estructural de los nuevos compuestos. Y siempre como elemento fundamental, la colaboración estrecha entre investigadores de diferentes profesiones por la posibilidad de ofrecer puntos de vistas desde diferentes perspectivas. . I.3 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS.

Los avances previsibles en el campo de la biotecnología, la biología molecular y ciencias afines, están dando un nuevo enfoque al diseño de medicamentos. Por otro lado, la ingeniería genética ha ido ganando un espacio cada vez más sólido en la industria farmacéutica fundamentalmente a partir del año 1993. Hacia finales del año 1995 ya eran 180 los contratos de colaboración firmados entre compañía-compañía y compañía- instituto de investigación en el área de la ingeniería genética y esta cifra continúa creciendo, involucrando cada vez más a las principales transnacionales farmacéuticas3. Las principales asociaciones se resumen en la siguiente tabla: Tabla 1 Principales contratos compañía farmacéutica compañía de investigación genética.

Programa Genético Industria Farmacéutica

Proyecto Genoma Takeda Humano (HGS) E Merk Incyte Pharmaceuticals

Pfizer Abbott Johnson & Johnson Roche BASF

Washington University

Merck (USA)

Milleninium Pharmaceuticals

Eli Lilly Roche

Myriad Genetics Bayer Sequana Therapeutics GlaxoWellcome Darwin Molecular Co. Rhône-Poulenc Rorer

Otro de los grandes avances en el desarrollo de nuevos medicamentos lo constituye la química combinatoria, mediante la cual es posible obtener en un tiempo relativamente corto hasta millones de 3 Beeley, LJ., Duckworth, DM. DDT, Vol 1, No. 11, 1996.

Page 16: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

11

moléculas relacionadas, pudiendo brindar compuestos candidatos a ensayos clínicos rápidos y de bajos costos. Esta novedosa técnica, propuesta por Geysen en 1980, se basa en la combinación de moléculas pertenecientes a un grupo químico con otras pertenecientes a otro grupo. En un ejemplo sencillo se tienen cuatro moléculas: A1, A2, B1 y B2. Las moléculas A1 y A2 son estructuralmente relacionadas, y B1 y B2 pertenecen a otra clase de molécula. Si ambas clases de moléculas pueden reaccionar entre sí entonces las combinaciones posibles serían A1-B1, A1-B2, A2-B1 y A2-B2. Este ejemplo puede parecer muy simple, pero la realidad es que normalmente se trabaja con al menos 30 compuestos de cada grupo, esto generaría un total de 30x30= 900 nuevos compuestos. Si a estos se le agrega otro grupo químico de 30 compuestos se obtendrían un total de 27 000 nuevos compuestos (30x30x30), todos ellos obtenidos de forma rápida4. Este enfoque, aplicado a la síntesis de péptidos, proporciona en la práctica, la posibilidad de crear librerías de oligopéptidos del orden de millones de compuestos a partir de la enorme cantidad de combinaciones posibles, las cuales se incrementan con la cantidad de aminoácidos que se empleen en la síntesis. Independientemente del avance de las técnicas de obtención de nuevos productos activos, el método de las variaciones estructurales siempre estará como método de apoyo en el diseño de estrategias de síntesis, formando parte de los equipos multidisciplinarios decididos a encontrar los mejores medicamentos, pues en su esencia constituye un método racional eficaz en el diseño de nuevos fármacos.

4 Plunkett, MJ., Ellman JA. Scientific American, 1997.

Page 17: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

12

CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR COMPUTADORAS En la actualidad existen numerosos métodos experimentales para determinar la estructura molecular de una sustancia. Las espectroscopías ultravioleta (UV), infrarroja (IR), y fundamentalmente la de masas y la de resonancia magnética nuclear H1 y de C13, así como las técnicas de difracción de rayos X son las más comunes. No obstante, el desarrollo alcanzado por la computación y la química computacional ha propiciado la generación de sistemas que permitan calcular la geometría y la energía molecular. Estos sistemas son capaces de generar datos con una amplia aplicación en la investigación experimental, tanto para la interpretación de los resultados obtenidos y la planificación de futuros, así como para deducir información no asequible experimentalmente. II.1 METODOS DE CÁLCULO

En principio, se pueden considerar tres tipos de métodos teóricos de cálculo para la obtención de la geometría de una molécula: los métodos ab initio, los semiempíricos y los de mecánica molecular. La elección de uno u otro método depende fundamentalmente del tamaño de la molécula, la naturaleza del problema planteado y del tiempo de cálculo requerido. En el caso de la mecánica molecular, aunque es el menos exacto de todos, requiere de menos tiempo de cálculo con respecto a los semiempíricos y ab initio, y reproducen con buena precisión los valores experimentales referentes a geometrías y energías. Este método se basa en los formulismos de la espectroscopía vibracional, representando la molécula como un modelo mecánico de masas (núcleos) unidas por fuerzas armónicas o elásticas (enlaces), las cuales se considera que poseen valores de longitud y ángulo ideales o naturales que condicionan la geometría. Entonces la energía E de la molécula se define como la desviación de los parámetros ideales y es minimizada siguiendo un algoritmo de optimización:

HDVDWr EEEEEEE +++++= ϖθ Ecuación 1.

donde Er define las deformaciones de la longitud de enlace (acortamiento-alargamiento), Eθ se relaciona con las distorsiones del ángulo de enlace, Eω es la energía de torsión del ángulo diedro por rotación de los enlaces y EVDW, ED y EH consideran las contribuciones de las interacciones de Van der Walls, las repulsiones electrostáticas y las asociaciones por puentes de hidrógeno, respectivamente. Dado que la mecánica molecular supone una interpolación de los datos experimentales existentes, generalmente predice correctamente las geometrías moleculares de los compuestos bajo estudio. Estas geometrías optimizadas se pueden utilizar como datos de entrada para los cálculos mecánico cuánticos con el objetivo de comenzar la optimización total con una estructura previamente refinada. Además su uso principal en la actualidad es en el campo de las macromoléculas, en las cuales los métodos de cálculos mecánico-cuánticos se tornan prohibitivos en cuanto a costo computacional Por otra parte, el tratamiento cuántico de la materia esta basada en el principio de incertidumbre de Heisenberg, según el cual no es posible conocer simultáneamente la posición y el momento de una

Page 18: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

13

partícula. Por esto es necesario abordar el problema desde el punto de vista estadístico, dada la necesidad de poder encontrar una partícula en un lugar determinado y en un momento dado. Otro concepto fundamental de la mecánica cuántica es que todas las cantidades dinámicas asociadas a cada partícula están cuantificadas. La energía de una partícula tiene un valor discreto, el cual es múltiplo de una energía básica y la constante de Plank. La ecuación fundamental es la de Schrödinger, que para el átomo de hidrógeno viene dada por la ecuación:

∇2 ψ - (8π2m/h2) (E+ Z e2/r) ψ = 0

Ecuación 2 donde ∇2 es el operador diferencial, ψ es la función de onda, h es la constante de Plank, y r la distancia entre el electrón y el núcleo. Para los átomos multielectrónicos, la ecuación de Schrödinger, no puede ser resuelta, pues no es posible la separación de las variables. Para ello es preciso acudir a la expresión de Hartree, que considera cada electrón independientemente, moviéndose en el campo del resto de los electrones y de los núcleos. Teniendo en cuanta el principio de exclusión de Pauli, según el cual no pueden existir más de dos electrones en una misma órbita, con dos espines diferentes, se obtiene la expresión de Hartree-Fock; la cual expresada en forma analítica, no matricial, origina la ecuación de Roothaan. En párrafos anteriores hicimos mención de que existen dos métodos principales de cálculos mecánico-cuánticos, en dependencia de las aproximaciones que se realizan: 1. Los métodos ab initio 2. Los métodos semiempíricos Los métodos ab initio con el modelo hamiltoniano nos brindan una representación completa de todas las interacciones no relativísticas entre el núcleo y los electrones de la molécula, soluciones no disponibles en la ecuación de Schrödinger. La utilización de este algoritmo de cálculo hace que los métodos ab initio necesiten un elevado tiempo de cómputo, que va a ser proporcional al número de electrones de la molécula, dependiendo por lo tanto de la naturaleza de los átomos y del tamaño de la misma. Sirva como ejemplo la molécula de metano, para la cual es necesario resolver un total de 1080 integrales, 1035 de ellas dielectrónicas. La gran mayoría de los cálculos ab initio utilizan la aproximación del orbital, definida en el método de Hartree-Fock. Ellos incluyen interacciones configuracionales (CI), campos autoconsistentes multiconfiguracionales (MC SCF), la teoría de correlación por pares de electrones (CPMET), y la teoría de las perturbaciones. Una alternativa de cálculo mecánico-cuántico lo ofrecen los métodos semiempíricos. Estos métodos han sido desarrollados dentro de la teoría de los orbitales moleculares (SCF MO), pero sobre la base de simplificaciones y aproximaciones introducidas al algoritmo de cálculo, que hacen que los tiempos de cómputo en computadoras normales (incluso microcomputadoras), se vea drásticamente reducido con respecto a los métodos ab initio, permitiendo una mayor utilización de los mismos. Hoy

Page 19: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

14

día, es práctica común la realización de cálculos de optimización de geometría en moléculas de mediano tamaño, con más de 200 orbitales de base, en computadoras personales. En tal sentido un método semiempírico debe cumplir los siguientes requisitos: 1. Que sea lo suficientemente simple para poder calcular moléculas relativamente grandes. 2. Que mantenga las principales interacciones intermoleculares: atracción por los núcleos y

repulsión entre los electrones. 3. Que los resultados del cálculo puedan ser interpretados, permitiendo la construcción de métodos

cualitativos adecuados. 4. Que compensen por parametrización las insuficiencias del método Hartree-Fock. La principal aproximación que realizan los métodos semiempíricos es que ellos desprecian las integrales de solapamiento, teniendo solamente en cuenta los electrones de valencia de cada uno de los átomos integrantes de la molécula, considerando los electrones internos como parte del núcleo no polarizable. Así, mientras el método semiempírico NDDO calcula un total de 741 integrales para el propano, un método ab initio deberá resolver un gran total de 38 226 integrales para la misma molécula. Esto en tiempo de cálculo se traduciría en que, para realizarlos en una computadora con capacidad de un millón de operaciones por minuto, el cálculo semiempírico duraría no más de 5 minutos contra un total de 5 horas para el ab initio en la propia molécula de propano. En la actualidad se cuenta con computadoras de mayor potencia y velocidad, con lo que es posible la realización de cálculos ab initio en un tiempo mucho menor que el expresado anteriormente. En principio, cualquier método semiempírico puede ser utilizado para el cálculo de la geometría optimizada de una molécula. El primer método aplicado fue el de Hückel en 1931, luego le siguió el PPP en 1935. A partir de este momento se han ido creando nuevos métodos de cálculos, cada uno de los cuales se va haciendo más complejo por el desarrollo lógico que va experimentando la computación, permitiendo realizar cada vez más, operaciones complejas en un menor intervalo de tiempo. Los más populares en orden cronológico son los siguientes5: • La teoría de Hückel extendida (EHT), la cual es una extensión de la aproximación de electrones-π

de Hückel que trata a todos los electrones de valencia de la molécula. Las integrales de solapamiento son calculadas por las funciones tipo Slater, mientras que las repulsiones electrónicas y nucleares son obviadas. Este método ha sido utilizado preferentemente para describir cualitativamente la estructura electrónica de sistemas moleculares. No obstante, al obviar importantes interacciones electrónicas, las distribuciones de cargas calculadas son irreales.

• El método C.N.D.O. (complete neglect differential overlap) es el más simple de los métodos semiempíricos. En el se obvian el solapamiento de orbitales atómicos, tanto diatómicos como del átomo simple, creando una aproximación incorrecta en el sentido de que no existe justificación para no incluir el solapamiento diferencial de un átomo simple.

• Los métodos I.N.D.O (intermediate neglect differential overlap) y M.I.N.D.O (modified INDO) se desarrollan bajo un compromiso en el cual el solapamiento de un centro es retenido en las integrales de un centro. Estos métodos representan una aproximación más real a la práctica que

5 Karelson, M., Lobanov, VS. Chem. Rev., Vol 96, 1996.

Page 20: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

15

los anteriores, pero todavía existe una reducción sustancial de las repulsiones electrónicas, utilizando un conjunto mínimo de electrones de valencia, obviando todas las integrales que implican el solapamiento de orbitales atómicos, excepto las integrales de resonancia monocéntricas y las integrales monocéntricas de intercambio. En estos métodos y en el método CNDO, las integrales de repulsión entre los orbitales atómicos del átomo A y cualquiera del átomo B, forman un conjunto igual, tanto si son del tipo s, p, σ ó π.

• Los métodos M.N.D.O (modified neglect of diatomic overlap), el AM1 (Austin model 1) y el PM3 (parametric model 3) están basados en la correcta inclusión del solapamiento de un centro, negando u obviando solamente el solapamiento diferencial diatómico. A diferencia de los métodos CNDO, INDO y MINDO estos métodos consideran un número adicional de integrales bicéntricas. Así, para cada par de átomos no similares es necesario calcular 22 integrales a diferencia de una única integral a calcular en los métodos CNDO, INDO y MINDO. Según Dewar, autor de los métodos MNDO y AM1, el método MNDO no describe correctamente la energía de los enlaces por puentes de hidrógeno ni la de los aniones, así como sobrestima las repulsiones electrónicas. Estas dificultades son mejoradas por el método AM1 sin que ello incremente el tiempo de cómputo. Posteriormente Stewart, uno de los colaboradores de Dewar realizó una reparametrización del método AM1 generando así el PM3. No obstante no se ha logrado demostrar la superioridad de uno con respecto al otro (AM1 y PM3), por lo que en la literatura actual es común encontrarse trabajos que utilizan uno u otro método indistintamente, sin que eso atente contra la calidad de los resultados.

Por los motivos anteriormente descritos, los métodos semiempíricos han tenido un amplio uso en el diseño de fármacos, toda vez que son métodos que reproducen en gran medida las propiedades reales de las moléculas, invirtiendo para ello, poco tiempo de cálculo; a diferencia de los métodos ab initio en los que el tiempo de cálculo resulta en realidad una gran limitante. Sin embargo, es necesario resaltar que los cálculos ab initio son los que reproducen con mayor fiabilidad las características estructurales de las moléculas, divergiendo en no más de un 2% con respecto a los datos experimentales. II.2 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO DE

NUEVOS FARMACOS

De manera general, los métodos que relacionan la estructura química con la actividad biológica asistidos por computadoras pueden dividirse en dos grandes categorías: los Métodos de Modelación Molecular ó SAR (Structure Activity-Relationships) y los Métodos QSAR (Quantitative Structure Activity-Relationships). Los métodos SAR (Structure Activity-Relationships) consideran las propiedades de las moléculas en tres dimensiones y son importantes en ellos aspectos como el análisis conformacional, la mecánica-cuántica, los campos de fuerzas y los gráficos moleculares interactivos. Estos últimos permiten la representación y la manipulación de la molécula en tres dimensiones, lo que proporciona una información espacial que es esencial para comparar moléculas y para estudiar la interacción entre ligandos y receptores macromoleculares. Estos estudios SAR son utilizados no sólo en el diseño de nuevos fármacos, sino que es aplicable al estudio de mecanismos de acción de los fármacos y a otras ramas de la ciencia como la ingeniería de proteinas y la química de polímeros.

Page 21: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

16

No obstante, se puede plantear que, el modelado molecular se refiere al uso de la química computacional (cálculos químicos) combinada con gráficos tridimensionales sobre computadoras, y sus aspectos centrales pueden ser divididos en las siguientes componentes: 1. Generación y optimización de la estructura molecular 2. Manipulación y análisis de las mismas. 3. Desarrollo de la hipótesis. 4. Predicción de las actividades. II.2.1 Búsqueda del farmacóforo.

Independientemente de la vía que se utilice para lograr un nuevo fármaco (ver capítulo anterior) el químico farmacéutico tendrá al final una nueva estructura química que estará destinada a interactuar de manera precisa con un blanco molecular, ya sea un receptor de membrana, un canal iónico, una enzima o una proteina transportadora. En la mayoría de los casos, la nueva molécula identificada no parece a primera vista similar a otras conocidas y de igual actividad, sin embargo el blanco molecular es capaz de reconocer en ellos características similares, por lo que es una tarea del químico farmacéutico identificar aquellos aspectos que tienen en común estas moléculas que le permiten ser identificadas por el blanco biológico y por tanto generar una respuesta farmacológica. En estas circunstancias, el análisis estructural comparativo ayudado por computadoras constituye una herramienta importante en la identificación de estos aspectos similares. La búsqueda en una serie de moléculas de los aspectos estructurales indispensables para lograr la unión al receptor y experimentar una actividad farmacológica se conoce como búsqueda del farmacóforo. Este no es más que el conjunto de grupos químicos, unidos o no entre sí, que todas las moléculas activas sobre un mismo receptor tienen en común, y que son esenciales para el reconocimiento por el mismo. Es común asociar al farmacóforo como un conjunto de átomos y no como un conjunto de formas y propiedades electrónicas que son los aspectos identificados por las enzimas y los receptores. El concepto de bioisosterismo tiene una alta aplicabilidad en el diseño de fármacos debido a esta característica. Aunque por definición propia el farmacóforo es el mínimo conjunto de requisitos estructurales y electrónicos indispensable para una determinada actividad, ello no implica que su presencia en cualquier estructura química sea suficiente para esperar una respuesta farmacológica. En tal sentido puede ocurrir que otras partes de la molécula en experimentación puedan interaccionar también con el sitio activo del receptor, impidiendo así la activación del mismo. Por ello la atribución de actividad farmacológica por la presencia en la estructura del farmacóforo debe estar condicionada por otros requisitos como son: 1. El compuesto debe ser metabólicamente estable, y capaz de ser transportado hasta el sitio de

interacción con el receptor. Este es el caso de compuestos aparentemente óptimos para una determinada actividad sin embargo resultan inactivos o poco activos por problemas de biodisponibilidad.

2. El compuesto debe ser capaz de asumir la conformación farmacófora, siendo importante el por ciento que el mismo representa en el equilibrio conformacional de la molécula. Así, confórmeros farmacóforos energéticamente estables presentarán una mayor actividad que aquellos que, debido

Page 22: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

17

a su inestabilidad energética sean menos abundantes en el equilibrio y por lo tanto menos disponibles a la hora de la interacción con el receptor.

3. El compuesto no debe presentar en su estructura otras partes que le permitan una interacción parcial con el receptor, pues estaría bloqueando la actividad del compuesto.

En la actualidad existen dos vías fundamentales de obtener el farmacóforo y estas son: • Cuando no se conoce la estructura del receptor • Cuando se conoce la estructura del receptor II.2.1.1 Obtención del farmacóforo cuando no se conoce la estructura del receptor.

En este caso, el trabajo está destinado a la búsqueda de las secuencias en la estructura química de múltiples ligandos que se unan a un mismo receptor. Para esto, se utilizan una serie de programas que permiten la visualización tridimensional de los ligandos, a través de los cuales, se pueden realizar rotaciones, traslaciones y operaciones de superposición de las moléculas. En sentido general se pueden definir cinco métodos computacionales a partir de los cuales puede definirse la estructura de un farmacóforo: 1. Por análisis de estructuras análogas y mapeo del receptor. 2. Por análisis conformacional y quimiometría. 3. Por determinación de las distancias geométricas. 4. Por determinación de los potenciales electrostáticos moleculares. 5. Por técnicas de QSAR tridimensional. Análisis de estructuras análogas y mapeo del receptor En el análisis de estructuras análogas y mapeo del receptor se llevan a cabo dos pasos fundamentales. En el primer paso es posible llegar a detectar, por superposición de un conjunto de estructuras, aquellas regiones de las moléculas que son indispensables para la actividad, y aquellas que son vulnerables a ser sustituidas con variaciones pequeñas en la afinidad. La información así recopilada puede orientar sobre la naturaleza de los grupos funcionales necesarios para la interacción con el receptor. En un segundo paso, la hipótesis establecida es verificada por determinación de cual es la disposición tridimensional coincidente de estos grupos (conformaciones) para los compuestos en estudio. El arreglo tridimensional obtenido para los grupos indispensables se convierte en un candidato a farmacóforo, el cual debe ser posteriormente evaluado en moléculas activas sobre el mismo blanco molecular y no incluidas en el estudio. El farmacóforo así obtenido puede ser consolidado por un análisis de cargas y estableciendo los potenciales electrostáticos del mismo. Adicionalmente, es recomendable calcular el volumen del sitio de unión que está realmente disponible para ser ocupado por los ligandos. El volumen mínimo lo proporciona la unión de los volúmenes de todas las moléculas activas en aquellas conformaciones que sirvieron para proponer el farmacóforo. Una vez conseguido esto, se debe probar con moléculas que posean estos mismos grupos funcionales y sin embargo tengan muy poca o ninguna afinidad por el receptor. En el caso de que una molécula sea capaz de adoptar una conformación energéticamente razonable, en la cual los grupos farmacóforos se encuentren correctamente alíneados con los compuestos activos, una

Page 23: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

18

explicación alternativa posible sería entonces el análisis del volumen molecular de la misma. Si este volumen es superior al calculado para el resto de las moléculas, entonces esta seria una causa razonable de la inactividad del mismo. Si el conjunto de moléculas estudiadas es lo suficientemente grande, se pueden llegar a determinar mapas de volumen para diversos receptores, cuya comparación puede permitir optimizar la actividad de un compuesto con respecto a otro. Esta metodología sirve para caracterizar la topografía de receptores de los cuales no se conoce su estructura tridimensional, al permitir determinar tanto el volumen asequible al farmacóforo como el volumen adyacente que debe ser excluido de los ligandos. Sobre esta base, Lloyd en 1986, llegó a proponer una estructura farmacófora común para 14 clases diferentes de fármacos que actúan sobre el SNC. Análisis conformacional y quimiometría El análisis conformacional puede ser tratado como un problema multidimensional si se construyen mapas de distancias y de torsión angular de los confórmeros obtenidos. Las matrices así obtenidas son transformadas o simplificadas utilizando métodos estadísticos clásicos como el análisis de componentes principales, análisis factorial o por técnicas clusters. Estos procedimientos son conocidos como métodos quimiométricos y tienen como objetivo disminuir el número de variables a analizar. Este tipo de estudio necesita de un análisis conformacional riguroso de cada una de las moléculas a analizar, pues puede ser que para un determinado fármaco, la conformación activa no sea la más estable termodinámicamente, debido a que la energía libre de asociación supera generalmente la energía necesaria para que el ligando sufra un cambio conformacional. Esta limitante, hace que este tipo de estudio sea muy complicado y que los resultados a obtener no sean siempre satisfactorios, pues cada conformación energéticamente accesible, presupone una disposición tridimensional diferente de los grupos candidatos a interaccionar con el receptor. Es por eso que este tipo de análisis debe ir siempre acompañado de un método quimiométrico, en aras de reducir el número de conformaciones a analizar. Una forma común de paliar esta dificultad es la búsqueda de un análogo rígido que tenga este mismo mecanismo de acción, plegando el resto de las moléculas a la conformación impuesta por él. No obstante, existen casos en los que no se dispone de un análogo de este tipo y otros, en los que este análogo rígido no es tan efectivo famacológicamente, generando resultados, en este último caso, con un grado de error proporcional al grado de afinidad presentado por esta molécula. Determinación de las distancias geométricas. Este método desarrollado inicialmente por Crippen y col.6 necesita de un riguroso análisis conformacional. En este tipo de estudio se proponen por superposición molecular, distancias óptimas a las que se deben encontrar los grupos capaces de interaccionar con el blanco molecular. Como la matriz de distancia no varía ni con la rotación ni con la traslación, también es aplicable la superposición con análogos rígidos. Con la información del volumen molecular anteriormente descrito, se pueden además dar explicaciones acerca de las diferencias entre agonistas y antagonistas.

6 Crippen, GM. Et al. J. Med. Chem., Vol22, 1979.

Page 24: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

19

Cuando la geometría y la naturaleza del sitio de unión se han calculado, es posible obtener por diseño, compuestos con mayor capacidad de unión al receptor, pudiéndose calcular además, la energía de unión y predecir la energía con la que el nuevo compuesto interaccionará con el blanco molecular. Como complemento, se han diseñado algoritmos computarizados para buscar nuevas clases de compuestos con una determinada actividad, comparando bibliotecas de fragmentos moleculares de estructuras conocidas y seleccionando aquellas que mayores posibilidades tienen de ajustarse a las medidas previamente calculadas para el sitio de unión. Determinación de los potenciales electrostáticos moleculares. Para que ocurra la formación del complejo ligando-receptor, debe ocurrir el reconocimiento del potencial electrostático del ligando por el receptor. Esto hace que este tipo de estudio brinde una información importante a la hora de determinar el farmacóforo. El cálculo del mapa del potencial electrostático de una molécula puede ser llevado a cabo por métodos de cálculo mecánico-cuánticos, ab initio o por métodos de cálculos de carga basados en el incremento de la electronegatividad. No obstante, debe tenerse en cuenta en el análisis conformacional que se realice, que el potencial electrostático es altamente dependiente de la conformación adoptada por el ligando, y por tanto, los resultados derivados de él dependerán en gran medida de los confórmeros empleados en el establecimiento del farmacóforo y de la efectividad del método empleado para el análisis conformacional. Criterios de calidad de los modelos de farmacóforos. Alcances y limitaciones Independientemente de los resultados que estos tipos de análisis generen, la calidad en la obtención de los farmacóforos es menor que en aquellos casos en los que la estructura del blanco farmacológico es conocida, por lo que su contribución al descubrimiento de nuevas moléculas tiene un alcance limitado. No obstante, en la actualidad las principales determinaciones de estas secuencias se realizan con la utilización de estos métodos, por la generalmente escasa información sobre las moléculas dianas. Un modelo farmacóforo ideal debe ser lo suficiente explicativo y predictivo para poder llenar los siguientes criterios:7 1. Incluir y explicar las diversas series de compuestos químicos reconocidos como activantes del

receptor en estudio. 2. Contener al menos un representante rígido y por otro lado representantes flexibles en los que las

conformaciones de mínima energía y otras conformaciones secundarias puedan ser analizadas. 3. Debe proponer la razón de la pérdida de actividad en los análogos inactivos con respecto a las

estructuras activas. 4. Debe ser capaz de discriminar estereoisómeros, pues la estereoespecificidad es la principal

característica de los receptores. 5. Debe ser distintivo entre agonistas y antagonistas.

7 Wermuth, CG., Langer, T. Pharmacophore identification, 3D QSAR in drug design, Cap I. Ed. Leiden, Germany, 1993.

Page 25: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

20

6. Debe ser validado en su capacidad predictiva en el diseño de nuevos y más potentes fármacos de estructuras totalmente novedosas.

Las limitaciones fundamentales de este tipo de estudio estriban en que se discriminan las posibles uniones alternativas que puedan ocurrir entre el ligando y el receptor, o incluso la unión en diferentes sitios del propio receptor. Además, se ignora las afinidades relativas perdiendo información sobre la magnitud de la interacción. II.2.1.2 Obtención del farmacóforo cuando se conoce la estructura del receptor

El conocimiento de la estructura del receptor puede simplificar el estudio de identificación del farmacóforo. No obstante, la tarea de determinación de la estructura de una macromolécula como estas, constituye en la actualidad un evento de gran dificultad. Los primeros en describir una estructura y una conformación detallada para una estructura celular fueron los famosos genetistas Watson y Crick en 1953, con sus trabajos sobre el ADN. La doble hélice del mismo, y la complementariedad que debe existir entre los pares de nucleótidos hace que el ADN sea un blanco farmacológico de suma importancia, al que se pueden unir pequeñas y medianas moléculas tanto por intercalación en su doble hélice como impidiendo la formación de la misma. Por otro lado, la primera descripción detallada sobre la estructura y conformación de una proteina data desde 1958, cuando Kendrew caracterizó por cristalografía de rayos X a la mioglobina de ballena. Teniendo en cuenta que una gran cantidad de fármacos realizan su acción por unión a enzimas o receptores peptídicos, es que este tipo de información estructural sobre las proteinas es de gran utilidad en el diseño de fármacos. En la actualidad existen bancos de datos de coordenadas atómicas (estructuras tridimensionales) de macromoléculas biológicas, procedentes de cristalografía de rayos X y de resonancia magnética nuclear. La mayor base de datos de macromoléculas la constituye el banco de datos de proteinas (PDB) de Brookhaven que cuenta en la actualidad con varios miles de estructuras de proteinas y varios cientos de estructuras de ácidos nucleicos. Actualmente se ha logrado además, la cristalización de las estructuras de receptores en su unión con el ligando. De esta forma, es posible conocer cuáles son los grupos del ligando que interaccionan directamente con el receptor, y cuáles son sus contrapartes en la proteina. Con estos resultados es posible conocer la naturaleza de la unión, la flexibilidad del receptor, y las interacciones que mantienen al ligando unido al mismo, pudiendo estimarse por tanto la energía de estabilización de este complejo, y además, el aporte por separado, de cada una de las regiones del ligando. Mediante este tipo de estudio, es posible definirse entonces de manera más precisa y exacta, la naturaleza del farmacóforo. Además, la lectura en computadoras de estos datos del complejo fármaco-receptor, permitirá la manipulación del ligando y la inserción de otros ligandos en la cavidad de unión, pudiendo analizar la naturaleza de la interacción entre estos nuevos sustratos con el receptor. Esto permite también la inserción de estructuras construidas o diseñadas para su ajuste exacto al receptor, siendo fuente de generación de nuevas entidades famacológicamente activas.

Page 26: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

21

Otra de las utilidades que brinda el conocimiento de los receptores estriba en la posibilidad de estudiar la naturaleza de otras estructuras o receptores análogas a él cuya estructura tridimensional se desconozca. Esta técnica se conoce como modelado de receptores farmacológicos. Teniendo en cuenta que la mayoría de los datos de proteinas provienen de cristalografía de rayos X, la cual se obtiene en estado cristalino, hace que el modelado de proteinas o de receptores farmacológicos afronte dos problemas básicos: 1. El número de conformaciones en una proteina es enorme. Por ejemplo un receptor de tamaño

pequeño, 250 aminoácidos, posee unos 750 grados de libertad de ángulos torsionales. Si cada uno de estos ángulos, tiene acceso a sólo 4 valores de mínimos energéticos el número teórico de conformaciones a adoptar por la proteina será de 4750. Esto no ocurre cuando se dispone de datos de RMN, que brinda los datos de los aspectos dinámicos del movimiento interno de la proteina. Las técnicas actuales de cristalografía de rayos X a baja resolución han logrado mejorar estos resultados.

2. La descripción teórica de la interacción entre los átomos de una proteina requiere la formulación precisa de un potencial o campo de fuerza empírico que contengan términos para representar los enlaces covalentes, los ángulos de enlaces de hidrógeno, y las interacciones electrostáticas y de van der Waals. En la actualidad estos programas no son capaces de predecir a partir de una estructura primaria la estructura tridimensional.

No obstante estas limitaciones, es posible predecir la estructura y propiedades de una proteina a partir de la estructura tridimensional de otra proteina con un porciento de analogía razonable. De esta forma se logrará tener la estructura aproximada de una proteina no conocida y por tanto diseñar nuevos ligandos capaces de acoplarse al centro activo de la misma. II.2.2 Consideraciones Finales

El modelado molecular continúa su evolución aplicando una gran variedad de métodos computacionales al problema de identificar las complejas relaciones existentes entre estructuras moleculares y actividades biológicas en cuanto a interacciones entre los átomos constituyentes. La introducción de nuevos métodos de cálculo y de computadoras cada vez más potentes, generarán sin dudas nuevos resultados que culminarán con la obtención de estructuras novedosas cada vez más potentes y selectivas. II.3 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS

Estos métodos están basados en el empleo de técnicas de correlación entre la estructura química y la actividad biológica. En este tipo de técnica, a las que el uso común han designado con las siglas QSAR (derivadas del término anglófono Quantitative Structure-Activity Relationships)8, la actividad biológica es interpretada como función de diferentes aspectos de la estructura química, y por lo tanto dependiente de ésta como se analizará más adelante.

8 . Kubinyi H., Methods and Principles in Medical Chemistry Vol. 1. QSAR: Hansch Analysis and related approaches. Editorial: VCH Verlag. RFA y VCH Publishers NY USA. Editor, H.F.Hebel, (1993).

Page 27: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

22

La actividad biológica del fármaco, producto de su interacción con el receptor, es una función de las características estructurales de la molécula. El modelo extratermodinámico de Hansch brinda una explicación matemática del fenómeno en la siguiente ecuación:

ln A= fh(Xh) + fe(Xe) + fs(Xs) + cte

Ecuación 3

donde A es la actividad y fh(Xh), fe(Xe), fs(Xs) son funciones de índices o parámetros hidrofóbicos, electrónicos o estéricos respectivamente. El término extratermodinámico proviene de que las relaciones se describen en términos termodinámicos, aunque no se deducen de sus leyes. Las aspectos fundamentales de la metodología extratermodinámica pueden formalizarse en una serie de puntos, la mayoría de los cuales se extraen de la ecuación fundamental, y es lo que se conoce como el paradigma de Hansch, que establece que: 1. La actividad biológica es función de la estructura del fármaco. 2. La estructura del fármaco implica ciertas propiedades globales como la hidrofobicidad,

refractividad molar, y solubilidad entre otras; y ciertas propiedades locales como la distribución de la hidrofobicidad, carga y volumen en determinadas posiciones de la molécula.

3. Estas propiedades globales y locales pueden ser cuantificadas mediante ciertos parámetros. 4. Siempre existe una función que relaciona los cambios de actividad biológica con los cambios en

las propiedades globales y locales, aunque puede ser que no sea sencilla ni evidente. Las funciones estructura-actividad que propone el método extratermodinámico, constituye un método mediante el cual se pueden buscar los productos más activos entre un conjunto de candidatos. La metodología de investigación en el QSAR sigue, independientemente del modelo que se utilice, pasos comunes que se hallan resumidos en la figura # 4. El punto de partida implica en todos los casos la existencia de una cabeza de serie. Este producto, aunque reviste interés como modelo a desarrollar, tiene propiedades susceptibles a ser mejoradas en aras de obtener siempre un producto lo más biodisponible posible. Cuando se dispone de un prototipo, es preciso diseñar una serie de exploración, que debe estar constituida por un conjunto de análogos del prototipo, para establecer las primeras relaciones estructura-actividad. Los miembros de la serie de exploración han de ser sintetizados y evaluados en la actividad biológica de interés. Los miembros de la serie de exploración están constituidos por un núcleo común, y unos sustituyentes o fragmentos variables, que son característicos de cada producto de la serie. Dichos sustituyentes variables han de ser identificados por descriptores, que serán utilizados como variables independientes (Xi) en el modelo. Los valores de actividad biológica (A) expresados regularmente en forma logaritmica- se utilizan como variable dependiente.

Page 28: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

23

Es de particular importancia la calidad de la serie de exploración a emplear, pues la calidad de las predicciones van a estar condicionadas en gran medida al diseño óptimo de esta serie, para así tratar de evitar fallos en la predicción.

Fig. #4 Diagrama sobre la metodología de investigación en estudios QSAR.

II.3.1 Elección de la serie

La calidad de una serie de exploración viene definida principalmente por dos aspectos: 1. Disimilitud de la serie. Los productos de la serie deben ser, respecto a los parámetros elegidos,

diferentes entre sí. No tiene sentido intentar estudiar cómo influye una característica sobre la actividad si sólo se estudian productos similares respecto a esta característica. Además, puesto que la serie debe ser una muestra del espacio experimental, el rango de variación de las características dentro de dicha serie debe ser equiparable a la que existe en el espacio experimental.

2. Ortogonalidad de la serie. Los productos deben escogerse de tal forma que la variación en las características se produzca de manera independiente. Si la variación de una propiedad X1 viene siempre acompañada de la variación en otra propiedad X2, no es posible conocer si el cambio de actividad de unos a otros productos se debe al cambio en la propiedad X1 ó en la propiedad X2. En estas situaciones se dice que las propiedades X1 y X2 se encuentran correlacionadas en la

Prototipo o cabeza de seie

Serie de exploración

Identificación Sustituyentes

Actividad Biológica

Tratamiento de la muestra

Modelo matemático

Productos óptimos

Page 29: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

24

serie. Una serie en a cual las correlaciones entre los parámetros son mínimas se dice que la serie es ortogonal.

Una vez definida y evaluada la actividad biológica de la serie de experimentación se procede al tratamiento de la muestra, de la cual se obtiene un modelo matemático que permitirá predecir uno o varios compuestos a los que les serán evaluadas sus actividades biológicas y reincorporados, en caso de no presentar una actividad óptima, a la serie de exploración. Este proceso se repetirá el número de veces necesarias hasta lograr la eficacia esperada para el fármaco a obtener. II.3.2 Tipos de estudios QSAR.

En la actualidad existen diferentes técnicas por las que se puede desarrollar un estudio QSAR en dependencia del tipo de tratamiento matemático que se le dé a la muestra y se pueden clasificar en: • QSAR tradicional • QSAR por redes de neuronas • QSAR tridimensional II.3.2.1 QSAR tradicional.

El método tradicional incluye el tratamiento estadístico de los datos por métodos multivariados, que incluye el análisis de regresión, análisis cluster y análisis por componentes principales, entre otras técnicas estadísticas. En ellos se valora la actividad biológica como variable dependiente del conjunto de descriptores moleculares que constituyen las variables independientes. Como resultado de esto se obtienen modelos que describen la actividad biológica como una determinada función matemática de los descriptores moleculares, bien sean estos estructurales, químico-físicos, o ambos. El método estadístico más familiar es la regresión múltiple, en la que se obtendrá la ecuación de una recta, un plano, o de un hiperplano, según sea el número de variables independientes incluida en la expresión. En el caso del análisis cluster, los datos y por lo tanto los compuestos de la muestra, se agruparán por la semejanza entre ellos según los valores de similitud que se le exijan. El análisis de componentes principales tiene como principal objetivo la reducción de variables. A diferencia de lo que pudiéramos creer, en la práctica de la modelación estructural el número de descriptores es muy grande y la selección de los que mejor representan a la muestra en la actividad biológica estudiada es difícil de definir en ocasiones. En el análisis por componentes principales, los datos se combinan en una línea recta. Esta línea recta es rotada de diferentes formas y en cada una de ellas se establecen los coeficientes de cada variable. Por lo tanto, en dependencia de la rotación que se haga, así variarán los valores de los coeficientes de cada descriptor estructural o químico-físico y por ende su peso o influencia en este componente. Cada componente (resultado del ajuste a un modelo líneal de todas las variables en las rotaciones efectuadas) se utiliza como una nueva variable. Con estas nuevas variables se puede realizar un análisis de regresión y determinar cual es la componente más importante o de mayor calidad para describir la muestra. Es práctica común emplear solamente aquellas que en su conjunto dan el mayor valor de varianza explicada. El problema

Page 30: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

25

entonces para el especialista consiste en poder asignar a esas componentes una significación químico-física o estructural. Recordemos que cada una de ellas es el resultado de la combinación líneal de todos los descriptores, con sus respectivos pesos. El análisis de regresión múltiple, como se planteó anteriormente, es el más utilizado dentro del QSAR tradicional. En él, una vez de establecidos los conjuntos de valores de las variables independientes Xi y la actividad biológica A, se obtiene un modelo en forma de ecuación de una recta (ecuación 4), la cual describe la dependencia de la actividad (A) en función del conjunto de descriptores (Xi) así como la magnitud de las contribuciones de cada uno de ellos.

A=f(Xi) + cte. Ecuación 4. El modelo así obtenido ha de ser analizado en función de su calidad estadística, para poder evaluar su capacidad de predicción. Cuanta mayor calidad estadística tenga el modelo, más confiables y exactas serán las predicciones a realizar. La calidad estadística de un modelo se evalúa por diferentes estadígrafos. Los más comúnmente aceptados son el coeficiente de regresión r, el valor F de Fischer y la desviación estándar s. Cuanto más tienda a la unidad el valor de r, mejor ajuste tendrán los datos al modelo. El valor F correlaciona la varianza explicada (r2) por el número de grados de libertad, con la varianza no explicada (1- r2) por el número de variables del modelo. Cuanto más alto es el porcentaje de varianza explicada por el modelo mayor será el valor de F, mientras que la existencia de variables con baja contribución a la explicación de la varianza, tenderán a disminuir dicho valor, que tiende a infinito en los mejores modelos. La desviación estándar s depende de la varianza no explicada y de los grados de libertad del modelo y es una medida de cuanto se alejan los valores predichos por el modelo de la línea, plano o hiperplano. La tendencia a cero de este valor pudiera presuponer mayor calidad en la predicción. Sin embargo, esto puede conducir a modelos sobrepredictivos en los cuales se refleje exactamente el comportamiento de la muestra pero que no sea posible utilizarlo para la extrapolación de valores en el caso de la predicción de nuevos compuestos. Un valor de s es válido cuando está en el mismo orden de magnitud del error experimental de las mediciones de la variable dependiente (la actividad biológica). En la ecuación 5 se muestra el modelo de regresión líneal múltiple obtenido por nuestro grupo de investigación al correlacionar los datos reportados de actividad bactericida de un grupo de alcoholes alifáticos.

log MIC=31.88(±6.95)**-2.10(±0.17)P1ΩQC***+2.16(±0.62)EHOMO

** N=12 R=0.97 F=74.22 S=0.44

Ecuación 5 Como se puede observar en esta ecuación, la actividad bactericida, expresada como función logarítmica de la concentración mínima inhibitoria (log MIC), es una función de dos índices que describen las características estructurales de la muestra de 12 alcoholes (n=12). Según establece esta ecuación, la actividad aumentaría con un decrecimiento en los valores del índice P1ΩQC, el cual sólo admite por definición valores positivos, (observe el signo negativo delante del valor de la variable).

Page 31: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

26

Un aumento de la actividad también se lograría incrementando el valor de la energía HOMO (EHOMO), observe el signo positivo. El valor 31.88 es la constante o intercepto. De manera general, según lo establece el modelo, alcoholes con índices bajos de P1ΩQC y elevados valores de EHOMO deben poseer mayor poder bactericida. Si analizamos la calidad estadística del modelo, observaremos que el mismo posee un alto coeficiente de correlación r=0.97, un valor bajo de desviación estándar s=0.44, y un elevado valor de F, por lo que el modelo debe tener una alta capacidad predictiva. Consideraciones adicionales para el establecimiento de una ecuación con calidad se tienen en función del número de variables independientes a incluir en el modelo. La cantidad de variables, debe estar limitada por el número de compuestos que forman parte de la serie de exploración, de forma tal que, la relación existente entre ellos sea de una variable por cada 5 o 6 compuestos en la serie de exploración. La utilización de una cantidad excesiva de variables en una ecuación de regresión puede conducir a reproducciones de la muestra de entrenamiento eliminándole el valor predictivo al modelo. Es necesario señalar además que, mientras mayor número de variables se incluyan en la ecuación, mayor será el número de parámetros a variar en el compuesto a obtener, hecho que se puede tornar difícil en la práctica sintética. II.3.2.1.1 Análisis de residuales

Otros estadígrafos empleados para determinar la calidad de un modelo son el error cuadrático medio (ECM), el error absoluto medio (EAM) y el error relativo medio (ERM). El error en la predicción o residual a quien se hace mención, es la diferencia entre el valor observado o experimental y el valor predicho (calculado) por el modelo. Su transformación brinda información acerca de la calidad o ajuste del modelo a nuestros datos y la forma de cálculo es simple. Error cuadrático medio. Es el promedio del cuadrado de los residuales (diferencia entre el valor observado y el valor predicho). Con él se resaltan los mayores valores de error y se elimina el efecto de los valores negativos de los mismos. Error absoluto medio. Es el promedio del valor absoluto de los residuales. De esta forma se eliminan los signos negativos y positivos de los errores y permite el análisis integral de los mismos, independientemente que el error sea por sobrepredicción (valor predicho superior al observado) o por subpredicción (valor predicho inferior al valor observado). Error relativo medio. Con él es posible dar información de una manera clara, sobre el comportamiento de los errores en toda la muestra. Se calcula sacando el promedio al cociente del valor absoluto de los residuales entre el valor experimental y se da en forma de porciento. Al dividirse el error absoluto entre el valor observado, se hace posible comparar todos los errores entre sí según el peso que representan ellos para cada compuesto en cuestión. En este caso, teniendo en cuenta que se trabaja generalmente en términos de concentración, aquellos compuestos cuya respuesta biológica se alcanza a valores mayores, su error, como es obvio, podrá tener un valor mayor también. En estos casos, analizar los resultados en términos porcentuales del error, no permitirá que se desvirtúe el resultado por el peso que puedan tener en la muestra aquellos compuestos con valores mayores de respuesta biológica.

Page 32: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

27

En dependencia de la naturaleza de los residuales y de los datos, así como del interés del investigador, se seleccionará el tipo o los tipos de error a reportar. Cada uno de ellos brinda una información que puede ser válida en el análisis de los resultados. Además, en un estudio estadístico determinado, no todos los integrantes de la muestra se ajustan necesariamente al modelo. La razón puede ser, desde una mala selección de la muestra, hasta un comportamiento diferente en el medio biológico, por actuar por un mecanismo distinto o por enmascararse la actividad con reacciones competitivas que sustraen al compuesto del medio. Otra razón puede ser la incapacidad de los descriptores empleados (variables independientes) de reflejar los aspectos estructurales de interés en un compuesto específico. Todo esto hace que en un momento determinado, un elemento no se ajuste a la recta, plano o hiperplano que describe el modelo. Toca entonces definir si ese comportamiento que lo sitúa como outlier estadístico se debe a algo casual. Outliers estadísticos son por definición observaciones atípicas no frecuentes. Por la forma en que se determina la línea de regresión en la Regresión Múltiple, los outliers tienen una profunda influencia en la pendiente de la línea de regresión y en consecuencia, sobre el valor del coeficiente de correlación. Incluso un solo outlier es capaz de provocar estos cambios. Ellos representan errores al azar que debemos ser capaces de controlar, pues pueden ser capaces no sólo de incrementar el valor de un coeficiente de correlación sino también de disminuirlo. Por eso se recurre a lo que se conoce como Análisis de Residuales en el que se decide la exclusión o permanencia de del compuesto en cuestión dentro de la muestra en estudio. Son diferentes los tipos de residuales que se analizan para definir si un compuesto es o no outlier. No es correcto al momento de hacer este análisis, emplear un solo criterio de exclusión. Para eso se emplea más de uno, de los cuales haremos una breve reseña, sin pretender presentarlos todos. Criterio para la eliminación de outliers Cuando se trabaja con muestras reducidas (n ≤ 100), los coeficientes de la ecuación de regresión no son muy estables. Es decir, valores extremos pueden influir demasiado en los resultados de la regresión. Por lo tanto, es aconsejable revisar diferentes criterios de eliminación de outliers para reiniciar el análisis en los casos más críticos después de eliminarlos. En este trabajo analizaremos como indicadores de la condición de outliers los siguientes estadígrafos: Residual estándar. Es el valor del residual, estandarizado (el valor observado menos el valor predicho dividido por la raíz cuadrada del residual cuadrático medio). Lo utilizaremos como criterio de exclusión absoluto si su valor es mayor que 3σ, aunque según la naturaleza del problema, puede oscilar entre ±2σ y ±5σ. Distancia de Mahalanobis. Si pensamos que las variables independientes de la ecuación están definiendo un espacio multidimensional, podemos pensar también que en ese mismo espacio podemos plotear el valor medio de cada variable independiente. A este pseudo punto medio del espacio multidimensional se le llama centroide. La distancia de Mahalanobis es la distancia del centroide al caso en el espacio multidimensional, y su medida da un índice de si una observación es o no un outlier.

Page 33: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

28

Residuales borrados. Es el valor estandarizado para cada caso, si este ha sido excluido del análisis de regresión. Si el residual borrado difiere mucho del residual estandarizado respectivo, entonces ese caso es posiblemente un outlier porque su exclusión cambia la ecuación de regresión. Distancia de Cook. Indica la diferencia entre el valor del coeficiente de la variable independiente calculado y el valor que se debía esperar después que el caso se excluye Todas las distancias deben ser aproximadamente de la misma magnitud. Si no es así, puede decirse que el caso respectivo varió la estimación de los coeficientes de regresión. En última instancia, cuando un compuesto de la muestra resulta outlier en tres o más criterios, entonces se le puede considerar un verdadero outlier estadístico y se le excluye de la muestra, si no existen consideraciones cualitativas de compromiso que fuercen su permanencia.

II.3.2.1.2 Análisis gráfico de resultados.

En estadística, los gráficos resultan de mucha utilidad para visualizar la información contenida en los modelos. Esta forma de análisis se aplica lo mismo al modelo en sí como a los residuales.

Gráficos de predichos vs observados Este tipo de gráficos ilustra el comportamiento de los valores experimentales respecto a los predichos por el modelo. El comportamiento ideal es cuando existe coincidencia entre ambos valores y por lo tanto se superponen dando una línea recta. La figura 5 es el resultado de plotear el valor predicho de Area de Superficie Accesible a Disolvente contra los valores calculados por el método DelPhi en una muestra heterogénea de 296 compuestos9, descrito por la ecuación:

ASAD = 85.12(±2.121) +60.19(±1.886)1χv- 40.743(±2.648) 3χv - 20.406(±2.186)4χ +27.128(±1.626)1ε + 8.505(±2.638) 2Ωq

3 -26.822(±4.553)Ω4-15.441(2.360)5ε-9.569 (±1.867)1Ω +10.768(±2.310)1Ωq

3+15.878(±4.072) 5Ωq R= 0.994 R2= 0.988 F(10,285)=2424.5 p<0.0000 S= 9.284 n=296

Ecuación 6

9 Padrón, JA,. Carrasco, R., Marrero, J., Pardillo, E and Estrada, E. Use of Topological and Topographical Indexes in the Prediction of the Solvent Accessible Surface Area. Quant Struct Act Relat.Submited

Page 34: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

29

Figura 5. Valores predichos vs observados obtenidos por la ecuación 6.

Gráfico de Residuales vs Residuales Borrados Con este tipo de gráfico es posible ver de manera clara la estabilidad del modelo cuando se elimina por pasos cada uno de los casos de la muestra. Según esta forma de presentación, aquellos residuales borrados que no se ajusten a la recta, pueden ser analizados como potenciales outliers. Su eliminación y posterior análisis de la ecuación resultante, así como de los gráficos correspondientes, decidirá si realmente el compuesto constituye o no un outlier. En la figura 6 se muestra el gráfico de Residuales vs Residuales Borrados correspondientes a la ecuación anterior.

Figura 6.Gráfico de residuales vs residuales borrados de la ecuación 6

Según este resultado hay al menos un compuesto con posibilidad de ser outlier. La exclusión del mismo empeoró la ecuación de regresión (menor R, menor F y mayor s), y por lo tanto permaneció en el modelo.

Page 35: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

30

Gráfico de distribución de residuales estándar o de residuales puros. En ocasiones resulta de interés al momento de la presentación de los resultados, visualizar gráficamente la distribución de residuales. Esta forma de presentación en histogramas resulta muy ilustrativa, sobre todo si se desea trasmitir al potencial lector la información directa y confiable del rango de error en que incurre el modelo, así como su distribución normal. Al analizar outliers a partir de los residuales estándar se fijan en valores no mayores de ±2σ, ±3σ o de hasta ±5σ, según los objetivos y tareas concretas. Es decir, que los valores de error no se separen de los experimentales en más de 2, 3 o hasta 5 veces la desviación estándar (σ) del experimento. La figura 7 muestra la distribución de residuales estándar de un modelo de regresión para la estimación del coeficiente de partición octanol/agua en una muestra heterogénea de 58 compuestos10, dado por la ecuación 7.

log P = 1.476(±0.123)p1Ωq- 0.463(±0.036)HB1-6.657(±1.204)p6ερ +6.492(±1.352)p6Ω - 1.118(±0.462)c3Ωq - 0.621(±0.273)

n=58 R= 0.965 R²= 0.932 F(5,52)=142.69 p<0.000 s= 0.275

Ecuación 7.

ExpectedNormal

Distribution of Standard residual

No

of o

bs

0

2

4

6

8

10

12

14

16

18

20

-2.5 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2 2.5 3 3.5 4

Figura 7. Gráfico de distribución de residuales estándar para la ecuación 7. De la gráfica anterior puede observarse que los residuales estándar no sobrepasan el valor de ±3σ y que presentan una distribución casi normal, compatible con la heterogeneidad de la muestra.

10 Carrasco, R., Capote, R., Padrón, JA., and Estrada, E. Modeling Physico-chemical Properties of Organic Compounds from Topological/Topographic Molecular Descriptors. J. Chem. Inf. and Comput. Sci., submited.

Page 36: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

31

II.3.2.2 QSAR por redes de neuronas.

A nuestro mundo civilizado de hoy se le ha dado en llamar la Sociedad de la Información. Esta idea, expresada de otra forma: El dueño de la información es el dueño del mundo, ilustra el estado actual de este aspecto de la vida del hombre en los finales del siglo XX. Es tan grande la cantidad de información de todo tipo que se recibe por múltiples vías diariamente, que se hace evidente que podemos quedar ahogados dentro de esa avalancha de conocimientos que nos llega. Cada vez resulta más difícil hallar el dato necesario dentro de la profusión de datos individuales. El análisis de datos en química no es algo nuevo. Durante años se ha realizado por métodos estadísticos y técnicas de reconocimiento de patrones. Pero también ha estado claro que el cerebro del hombre recibe y analiza información de forma sui generis porque la adquisición de conocimientos por el cerebro humano no se realiza por métodos estadísticos. Las limitaciones propias de los métodos mencionados condujeron a los sistemas expertos. Un sistema experto tiene su punto de partida en una gran cantidad de información (base de datos), un número considerable de reglas de conocimientos (base de conocimientos) y un mecanismo de inferencia que une ambas bases y permite tomar decisiones. En el acápite sobre sistemas expertos, se presentan ejemplos de estos sistemas basados en computadoras que permiten simular el razonamiento del hombre en el dominio del saber específico. Sin embargo, los sistemas expertos distan mucho de ser perfectos. Estos métodos requieren, para construir su base de conocimientos, muchas disciplinas científicas. Pero evidentemente, esta no es la vía por la cual el cerebro adquiere el conocimiento. Los avances en neurofisiología, y las nuevas técnicas experimentales como la electroencefalografía, la tomografía axial computarizada, el tratamiento de imágenes por RMN, la tomografía de positrones o la de fotones, han incrementado la comprensión de la anatomía del cerebro y de los procesos físico-

químicos que ocurren en él. A partir de este conocimiento, se diseñaron modelos matemáticos de adquisicón de conocimientos del cerebro humano llamados Redes de neuronas artificiales (RNA), o simplemente, Redes de Neuronas (RN). Los modelos de redes neuronales se basan en la interacción colectiva y en paralelo de una gran cantidad de procesadores simples que simulan la conducta de las neuronas biológicas. La manera como las neuronas se encuentran interconectadas determina la arquitectura o topología de la red. Cada neurona por ejemplo, puede estar conectada con todas las restantes (red de Hopfield), estar basada en una sola capa de neuronas organizada en un plano con una topología definida (red de Kohonen), o pueden estar organizadas por capas (perceptrón

multicapa). En la figura 8 se muestra un ejemplo de red de Hopfield en la que se indican con flechas de diferentes tipos la conexión de tres de las 10 neuronas que la constituyen. La figura 9 es un ejemplo de red de Kohonen bidimensional. Una RNA la podemos considerar una caja negra que acepta un conjunto de datos, los procesa y brinda una o más salidas. La función de procesar es a lo que comunmente se le llama aprendizaje de

Figura 8 Red de Hopfield

Page 37: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

32

la red. Muchos usuarios de las RNAs desconocen lo que ocurre dentro de esa caja negra sin embargo, continúan aplicándola a su problema. Las RNAs han sido aplicadas en química tanto para estudios de relación estructura-propiedad como estructura-actividad biológica, de forma cualitativa y cuantitativa. En dependencia del tipo de trabajo a realizar en un campo específico debe seleccionarse el tipo de red a emplear. En los estudios QSAR y QSPR es de uso común los perceptrones multicapa para procesamiento cualitativo y cuantitativo de las muestras. Las redes de Kohonen y Hopfinger se emplean preferentemente en problemas de selección de variables para el establecimiento de los modelos y para definir muestras de entrenamiento y prueba. se utiliza frecuentemente para establecer criterios de selección de variables La selección del tipo de red y la definición de su topología se establece dependiendo del tipo de trabajo a realizar en el campo específico.

II.3.2.2.1 Teoría de las redes de neuronas artificiales. Una RNA consiste de un número de unidades de procesamiento conectadas entre sí usualmente, pero no siempre en diferentes capas. Aquí sólo expondremos el tipo de red conocida como perceptrón multicapa por ser la más ampliamente aplicada en estudios QSAR y QSPR, en el que la arquitectura más empleada es la de una capa de entrada, una oculta y una de salida. Esta arquitectura ha demostrado ser suficiente para la resolución de problemas en este campo con el máximo de economía en el gasto computacional. Cada unidad de procesamiento o neurona realiza varias funciones en analogía muy simplificada al compararla con

los cientos que realizan las neuronas biológicas, pero que a los efectos de modelo resultan suficientes. Ellas reciben los datos en la unidad de entrada, los pasan a la unidad de procesamiento, aplican una función de transferencia y producen una salida (fig. 10). La función de transferencia es generalmente una sigmoide pero pueden ser otras funciones; el propósito de esta función de transferencia es simular o mimetizar las funciones de las neuronas biológicas las que envían un impulso o señal si la señal recibida o dato está por encima de un cierto umbral de valor. Hay diferentes algoritmos para el aprendizaje de las redes de neuronas, pero el más ampliamente empleado por los quimiométricos es el conocido como feed-forward backpropagation, o

simplemente backpropagation. Este procedimiento utiliza un método de aprendizaje supervisado, lo

Figura 9. Red de Kohonen

C a p a d ee ntra d a

C a p ao c ulta

C a p a d esa lid a

Figura 10. Perceptrón multicapa

Page 38: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

33

cual quiere decir, que necesita conocer las respuestas a las entradas, por adelantado, o sea, la actividad biológica o propiedad. De manera común, este tipo de red emplea las unidades procesadoras en tres tipos de capas: de entrada, oculta y de salida. Cada unidad en una capa está conectada a cada una de las unidades en las capas adyacentes con un peso o fuerza de conexión ωi. El ajuste de estos pesos durante el proceso de optimización es lo que se realiza durante el entrenamiento de la red. El valor de cada unidad en la capa de salida se compara con el valor diana que, en los estudios de relación estructura-actividad o estructura-propiedad son los valores experimentales de dicha propiedad. Mientras que en la regresión múltiple tenemos una tabla de n compuestos con y propiedades químico-físicas y la actividad biológica asociada a cada uno de los n compuestos, en las RN tendremos y unidades en la capa de entrada y generalmente una unidad en la capa de salida (actividad o propiedad) con usualmente una capa de unidades ocultas entre las capas de entrada y salida. Las entradas a la red pueden ser cada uno de los valores y a cada una de las y neuronas para cada compuesto. El valor diana para cada uno de los n compuestos será la actividad biológica o la propiedad químico-física, según sea el caso. A las redes a las que se les suministran los datos en la capa de entrada y producen una señal hacia la capa de salida, se les llama feed-forward o de alimentación hacia delante. El entrenamiento de la red implica cambios iterativos de los pesos en las conexiones hasta que la señal de la neurona o neuronas de la capa de salida se ajusta, dentro de ciertos valores límites de error, con el valor diana en un proceso de minimización del error. Hay diversas formas de alterar los pesos de la red pero uno de los más empleados es la regla delta. La regla delta, dicha de forma cualitativa, está descrita por una expresión según la cual, los cambios en el peso de una conexión dada entre dos neuronas es función de dos parámetros denominados β o velocidad de aprendizaje para ajustar la velocidad a la cual la RN asimila la información, aprende, durante el entrenamiento y un término α (también se encuentra μ como notación) llamado momentum, que impide que la red quede atrapada en mínimos locales. Al inicio del entrenamiento, a los pesos de las conexiones se les asignan valores al azar. Los datos para todos los compuestos se pasan por la red (se transforman por la función de transferencia) y la respuesta de salida se compara con el valor experimental, en nuestro caso la actividad, y se determina el error. Los pesos se ajustan entonces para que los datos pasen por la red por segunda vez con el fin de reducir el error anterior. Como la regla delta requiere el cálculo de un error en la neurona de salida para calcular los errores en las restantes neuronas, es que se les conoce como propagación del error hacia detrás o backpropagation errors, de ahí su nombre. Este proceso se repite iterativamente hasta minimizar el error por debajo de un valor fijado. Por último, se puede calcular el coeficiente de correlación entre el valor observado de la actividad biológica y el predicho por la red. Las redes de este tipo se emplean cuando no se conoce la forma analítica del modelo (lineal, cuadrático, etc.) o cuando se desea extraer información no-lineal compleja del conjunto de datos.

II.3.2.2.2 Aplicaciones de las redes de neuronas en estudios QSAR. Al igual que otros modelos matemáticos de análisis de datos, la calidad de los resultados dependerá en buena medida de la calidad de los mismos, es decir, de la naturaleza de la muestra, así como de los descriptores empleados para el establecimiento del modelo. La selección de una muestra de trabajo

Page 39: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

34

puede ser en un momento determinado, un aspecto limitante; bien porque las condiciones experimentales no permiten llenar vacíos o la bibliografía no suministra la información necesaria. Es un lugar común el no disponer de los datos necesarios y suficientes, aunque la cantidad de ellos sea extensa. Esta situación obliga a trazar una estrategia en los estudios QSAR para la selección de las muestras de entrenamiento y prueba. La aplicación de la misma en el análisis de regresión, permite validar los resultados del modelo alcanzado en un conjunto de compuestos diferentes al utilizado para desarrollar el modelo y así valorar su capacidad descriptiva. Por su parte, en el trabajo de RN se precisa generalmente un tercer conjunto al que se llama de validación, pues en RN es frecuente que los programas presenten la opción de salvar la mejor red según los resultados alcanzados en la muestra de entrenamiento o en la de prueba. En estos casos, este procedimiento le restaría algo del valor de generalización al resultado del aprendizaje, pues la red ya habría visto en algún momento a la muestra de prueba. Por eso, ese tercer grupo de compuestos constituye el último criterio para validar los resultados. Uno de los primeros trabajos aplicados a estudios QSAR fue un análisis discriminante de un conjunto de derivados anticancerígenos de mitomicina. Se empleó un conjunto de seis variables, dos de ellas indicadoras y cuatro de sustituyente, se dividió la actividad en cinco categorías y se fijó una capa oculta de 12 neuronas (arquitectura 6 x 12 x 5) . La red entrenada fue capaz de clasificar correctamente los 16 compuestos de la muestra de entrenamiento. Sin embargo, el elevado número de conexiones (132) puede dar lugar a correlaciones casuales o a un ajuste excesivo, lo que en terminología de RN se conoce como memorizar; es decir, la red ha retratado la muestra y establecido un patrón único lo cual le impide hacer la generalización de su aprendizaje. Esto hace que si se le presenta un grupo de compuestos no visto por ella anteriormente, no los reconocerá pues su patrón para identificar nuevas entidades se especializó en el conjunto de entrenamiento que se le suministró previamente para el aprendizaje. ¿Qué quiere decir este comportamiento? Que se ha sobreajustado una superficie a la muestra de entrenamiento brindando un aparentemente buen comportamiento pero, no permite la predicción. Este problema fue identificado por Andrea (1990) el cual propuso un parámetro ρ, que puede ser empleado para caracterizar la relación entre los puntos de datos y el número de conexiones según la expresión:

conexionesdeNdatosdepuntosdeN

o

o

En ese trabajo se recomienda emplear valores de 1.8<ρ<2.2 para evitar por una parte que la red memorice, y por la otra, para evitar pérdida de información por insuficiente número de conexiones. En el ejemplo mencionado, ρ=0.5 y por lo tanto, es posible que exista un sobreajuste. Sin embargo, según J. Zupan y J. Gasteiger11 la búsqueda de una arquitectura apropiada para una red resulta en la práctica, un procedimiento de prueba y error.

11 Zupan, J. and Gasteiger, J. Neural Networks for Chemists. An Introduction, cap. 8; 1994.

Page 40: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

35

En otra aplicación, se trabajó con una muestra heterogénea de cefalosporinas (fig. 11) con variaciones estructurales en las posiciones 7 y 3 del anillo cefalosporánico y se utilizó la actividad medida frente a E. coli como respuesta biológica. Se dividió la muestra de 104 derivados en tres: de entrenamiento (n=57), prueba (27) y validación (20). Se lograron predicciones aceptables para un modelo cuantitativo tan heterogéneo. El error relativo en la predicción para las muestras de entrenamiento y prueba es de 7.7% y para la

muestra de validación de 7.9%. En otro trabajo utilizando esa misma muestra, se lograron modelos para el S. aureus con errores relativos para las muestras de entrenamiento y prueba de 6.9% y de 10.5% para la muestra de validación. Estos resultados se consideran muy buenos, teniendo en cuenta la elevada heterogeneidad de la muestra. Una capacidad de análisis de la información que es exclusiva de las redes de neuronas, es la que nos permite evaluar simultáneamente en un mismo modelo, más de una actividad. La incorporación de neuronas adicionales en la capa de salida es la que facilita esta opción. En un trabajo actualmente en curso, nos encontramos evaluando un sistema de redes en las que se evalúa simultáneamente la actividad de una familia de 65 cefalosporinas de diferentes generaciones frente a dos bacterias Gram (+), S. aureus y E. cloacae. Para ese estudio la muestra se dividió también en tres: entrenamiento (48), prueba (12) y validación (5). Se lograron coeficientes de correlación de 0.90 y 0.86, así como errores relativos promedios de 5.3 y 6.7% para cada bacteria respectivamente. Esta tipo de análisis es imposible de realizar con otros métodos multivariados. II.3.2.3 QSAR tridimensional (3D-QSAR). El QSAR tridimensional es una técnica moderna que combina los aspectos relacionados en el estudio QSAR clásico con los de los estudios SAR o de modelado molecular. En los estudios SAR de análogos, la elección se limita a si el compuesto es activo o inactivo. En la práctica, sin embargo, los resultados se representan generalmente de forma numérica que refleja las diferencias cuantitativas en la unión de uno u otro ligando. Por otro lado, el QSAR clásico si tiene en cuenta estos valores numéricos de las afinidades, pero para establecer un modelo por esta técnica, no es posible considerar compuestos estructuralmente diferentes, ya que en este tipo de análisis, es indispensable el empleo de una serie estructuralmente análoga. La necesidad de lograr una interfase entre ambos tipos de trabajos necesitó el desarrollo de un análisis conceptualmente nuevo. El primer logro en este sentido lo alcanzaron Cramer y colaboradores12 en 1988 al desarrollar el análisis comparativo de campos moleculares (CoMFA). La premisa básica de este método, es que el muestreo adecuado de los campos eléctricos y electrostáticos alrededor de un conjunto de moléculas o fármacos, puede proporcionar toda la información necesaria para comprender las actividades biológicas.

12 Cramer, RD., Patterson, DE., Brunce, JD. J. Am. Chem. Soc. Vol 110, 1988.

N

S

R 3

CO OH

O

CO NHR 7 1

23

4567

8

Figura 11. Fórmula general de las

cefalosporinas

Page 41: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

36

Para hacer esto posible, se precisa del cálculo de los campos de fuerzas por mecánica molecular, que sólo consideran las fuerzas estéricas y electrostáticas. Para lograrlo, se superponen todas las moléculas en las conformaciones presumiblemente activas y se calculan las energías de interacción estéricas (van der Waals) y las electrostáticas (Coulomb) entre cada una de las moléculas de interés. Posteriormente se recurre a la técnica estadística de los mínimos cuadrados parciales y se extraen las variables que describen la varianza del conjunto de datos, los cuales se someten después, a una validación cruzada. El análisis de regresión lineal múltiple no es aplicable en esta técnica, pues, la cantidad de variables generada en estos estudios es muy elevado. De manera general los pasos a seguir son los siguientes: 1. Postular la conformación activa para el metabolito endógeno o para el fármaco más activo. 2. Alinear el resto de las moléculas y establecer a su alrededor una malla tridimensional como una

caja de puntos en el espacio potencial del receptor. 3. Calcular el campo que cada molécula ejercería sobre un átomo sonda situado en cada punto de la

malla. 4. Determinar una expresión lineal mediante la técnica de mínimos cuadrados parciales que podría

consistir en un conjunto mínimo de puntos de la malla necesarios para distinguir los compuestos sometidos a examen de acuerdo a las actividades determinadas experimentalmente.

5. Realizar la validación cruzada del modelo (crossvalidation) 6. Ajustar la alineación de los compuestos peor predichos y repetir los pasos anteriores hasta

encontrar la mayor alineación posible. Estos resultados del QSAR-3D producido por miles de términos (en el QSAR tradicional el número de términos es más reducido en función del tamaño de la muestra), se pueden visualizar gráficamente en formas de mapas de contorno, pudiendo colorearse de diversos colores para resaltar la dirección y magnitud de la interacción. De tal manera, las regiones coloreadas aparecerán en aquellas regiones en donde las diferencias electrónicas y estéricas produzcan una mayor variación de la actividad. II.3.3 Validación de modelos.

Independientemente del tipo de análisis QSAR empleado, el resultado final va a ser un modelo matemático. Para estar completamente seguros de que el modelo obtenido no resulta de un ordenamiento al azar de los datos, es común, según las normas internacionales, verificar la calidad del mismo. El método de regresión lineal múltiple proporciona los valores para los coeficientes que hacen que la función matemática propuesta explique al máximo, cómo varían las actividades. Independientemente de esto, siempre quedará una varianza no explicada por el modelo -los residuales-, que corresponden a los errores en las medidas de los datos de actividad y a posibles efectos no incluidos en él -parámetros no considerados-. Mientras mayor sea la diferencia entre la varianza explicada sobre la no explicada mayor será la utilidad del modelo. Esto puede contrastarse con un análisis de varianza y un test de F. Cuando el modelo no es satisfactorio se obtiene la no significación en el test. Otro problema es que el modelo no sea predictivo, es decir, que la función propuesta no se cumpla para productos no incluidos en la serie de exploración. Este problema suele solucionarse realizando

Page 42: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

37

una validación cruzada (crossvalidation) al modelo, con el procedimiento conocido como leave-one-out. Este procedimiento consiste en un análisis de regresión lineal que se repite tantas veces como número de compuestos tenga la muestra, eliminando en cada uno de los análisis a un compuesto. De tal manera, en una muestra donde el número de estructuras evaluadas es 24 (n=24), se realizarán 24 análisis de regresión con 23 compuestos, generando al final los valores promedios de los coeficientes de correlación (r2 ó rcross) y de las desviaciones estándar obtenidas (Spress). De esta forma se puede conocer si el modelo mantiene su calidad estadística independientemente de la presencia o ausencia de algunas de las moléculas estudiadas. Si el valor de r2 ó rcross disminuye ostensiblemente con respecto al valor del coeficiente de correlación (r), eso significa que el modelo obtenido sustenta su valor estadístico sobre los datos evaluados, pues la inclusión o eliminación de un compuesto influye apreciablemente en los valores del coeficiente de correlación. De tal manera la ecuación o modelo obtenido no tendrá valor como modelo predictivo. El límite de disminución de r2 ó rcross con respecto al coeficiente de correlación para que el modelo mantenga propiedades predictivas, está en dependencia del tipo de análisis estadístico empleado. Para el caso del 3D-QSAR, donde se utiliza el método de los mínimos cuadrados parciales (PLS), los valores de r2 ó rcross pueden disminuir hasta el valor de r2≥0.6513; y en el caso del QSAR tradicional donde se utiliza el método de regresión múltiple, estos valores no deben disminuir en más de un 10%, en aras de disminuir el por ciento de error a la hora de realizar las predicciones. Otra forma de medir o evaluar la calidad de la ecuación obtenida consiste en determinar la robustez (q2) del mismo, y el mismo se calcula a través de la ecuación siguiente:

q2 = (SD-PRESS)/SD ecuación 8

donde SD es la sumatoria al cuadrado de las desviaciones estándares de los residuales y PRESS es la sumatoria al cuadrado de los residuales. Este valor de q2 derivado de la validación cruzada no es más que la habilidad del modelo para realizar la predicción. En un modelo donde se obtenga un valor de q2> 0.5 puede ser considerado como un modelo predictivo. Para que el estudio de relaciones estructura-actividad se concluya con éxito debe obtenerse un modelo significativo y predictivo. Aún así, la validez del modelo estará siempre limitada al rango de parámetros explorados por la serie de exploración, fuera del cual nunca debe considerarse válido. De hecho, esta es la principal limitación a la hora de buscar el óptimo de actividad predicho por un modelo. Cuando el modelo contiene sólo términos lineales, basta con buscar sustituciones que maximicen, según los valores que toma el índice, los términos con coeficientes positivos y minimicen los términos con coeficientes negativos. Esta operación debe ser resuelta con mucho cuidado, pues los procesos de maximización o minimización deben realizarse sobre la base de los valores que toma el índice, pues existen índices que pueden tomar valores tanto positivos como negativos (las cargas, energías, lipofilidad, etc.); mientras que otros sólo poseen valores solamente positivos (los índices Ω, χ etc.) o negativos (EHOMO y ELUMO). 13 Tong, W. Et al. Environ Health Perspect. Vol 105, No. 10, 1997.

Page 43: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

38

Debe tenerse en cuenta, que si se rebasan los valores máximos y mínimos de la serie de exploración, los resultados a obtener en los nuevos compuestos no tienen porqué responder al modelo, pues esos valores no fueron explorados y por tanto no incluidos en el mismo. Un ejemplo de esto puede ser un modelo en el cual sea necesario el incremento del índice Ω. Este índice, que sólo toma valores positivos, se incrementa cuando se aumentan los órdenes de enlaces y las ramificaciones en la estructura química. Esto hace pensar que, en las moléculas a diseñar, la inclusión de un mayor número de dobles o triples enlaces, y el aumento de la ramificación por utilización de las técnicas modulativas de la variación molecular (ver capítulo I), generaría compuestos más activos; sin embargo este aumento de dobles o triples enlaces puede generar en la molécula una susceptibilidad al metabolismo y metabolizarse rápidamente sin que esta llegue al sitio de interacción con el blanco terapéutico. El incremento de la ramificación, por su parte, puede generar un volumen superior al permitido por el receptor y por tanto bloquear por impedimento estérico la interacción del ligando con el mismo. Estas consideraciones no pudieron ser recogidas evidentemente por el modelo, pues en él este extremo de valores no fue considerado. II.4. DESCRIPTORES MOLECULARES O INDICES

Bajo este término se agrupan una serie de parámetros que a través de valores numéricos representan una información estructural, electrónica, estérica, así como una determinada propiedad químico-física de la molécula en estudio. Desde este punto de vista estos parámetros se clasifican en: • Indices basados en propiedades químico-físicas: Son aquellos, como lo dice su nombre, que

derivan de la determinación experimental de una determinada propiedad químico-física de la molécula.

• Indices mecánico-cuánticos: Son aquellos que se determinan por cálculos mecánico-cuánticos. • Indices topológicos y topográficos: Son aquellos que se determinan a partir del grafo químico, o

sea de la estructura química.

II.4.1 Indices basados en propiedades químico-físicas

Las propiedades químico-físicas en una molécula pueden reflejar la interacción de dicha molécula con el receptor. Entre los parámetros químico-físicos más empleados en el QSAR se encuentran:

Símbolo Descripción Tipo Referencia log P Logaritmo del coeficiente de partición Hidrofóbico Hansch, 1979 MR Refractividad Molecular Estérico Hansch, 1973 pka Constante de ionización Electrónico Martin, 1978 μ Momento dipolar Electrónico Lien, 1982

Todos los parámetros anteriormente reflejados representan propiedades globales de la molécula. Este tipo de parámetro tiene el inconveniente de que es necesario medir la propiedad, y muchas veces esto presupone un trabajo laborioso; aunque muchos de estos índices pueden ser determinados por métodos computacionales con aproximaciones bastantes exactas a la realidad experimental.

Page 44: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

39

Existen además índices fragmentales derivados de la parametrización del índice global en un conjunto de derivados de una cabeza de serie, en la cual sólo varían los sustituyentes en una o varias posiciones de éste. De tal manera, el índice fragmental se calcula por la diferencia existente entre el índice global de la molécula cabeza de serie y el índice global para la molécula analizada. El valor así obtenido representa la contribución del sustituyente sobre el núcleo básico. De este modo pueden caracterizarse propiedades locales de la molécula, pero también propiedades globales, tomando en consideración el carácter aditivo de cada uno de los valores fragmentales que constituyen la molécula final. De tal modo que se hace innecesaria la síntesis previa de los productos a caracterizar. Entre estas constantes fragmentarias las más utilizadas son:

Símbolo Descripción Tipo Referencia π Constante hidrofóbica del sustituyente Hidrofóbico Fuyita, 1964 σ Constante de Hammett Electrónico Hammett, 1940Es Parámetro estérico de Taft Estérico Taft, 1956

MR Refractividad Molar de sustituyente Estérico Hansch, 1973 F,R Constantes del efecto inductivo y

resonante Electrónico Swain, 1968

III4.2 Índices mecánico-cuánticos.

En cualquier estudio QSAR, la obtención de un coeficiente de correlación significativo está condicionado en gran medida a la utilización de descriptores que logren reproducir el fenómeno estudiado, independientemente del origen del mismo. El desarrollo reciente de la computación ha hecho posible el cálculo mecánico-cuántico de las estructuras químicas. Estos cálculos químicos-cuánticos ha generado un creciente interés en la obtención de índices que en un principio, puedan expresar todas las propiedades electrónicas y geométricas de las moléculas, así como, sus interacciones. Es precisamente, la química cuántica, la que brinda una información electrónica más detallada, que en muchos casos no es posible cuantificar experimentalmente. Para un estudio QSAR lo importante a obtener de estos cálculos químico-cuánticos son índices que permitan describir las características electrónicas y energéticas de las moléculas. Debido a la amplia información que pueden contener estos descriptores teóricos, su utilización en estudios QSAR puede tener dos grandes ventajas: 1. Los compuestos y sus varios fragmentos y sustituyentes pueden ser directamente sobre la base

exclusiva de su estructura molecular. 2. El mecanismo de acción propuesto para los fármacos a estudiar puede estar directamente

relacionado con la reactividad química calculada. Consecuentemente, los modelos QSAR obtenidos con la utilización de índices o descriptores moleculares de esta naturaleza, incluirán información de la naturaleza de las fuerzas intermoleculares envueltas en la acción del o de los fármacos.

Page 45: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

40

A continuación se relacionan los principales índice mecánico-cuánticos empleados en los estudios QSAR5:

Definición Nombre Qa Carga neta sobre el átomo A Qmin, Qmax Cargas netas más negativa y positiva de la molécula qE,A, qN,A Cargas electrónicas nucleofílicas y electrofílicas, calculadas a

partir de los orbitales ocupados y desocupados respectivamente. qA,σ, qA,π Densidades electrónicas σ y π del átomo A εHOMO εLUMO Energías HOMO y LUMO. Significan las energías del último

orbital ocupado y la del primer orbital sin ocupar respectivamente. SE,A, SN,A Superdeslocalizabilidad electrofílica y nucleofílica. α Polarizabilidad Molecular μ Momento dipolo molecular ET Energía total de la molécula ΔH0

f Calor de formación Cargas Atómicas:

De acuerdo con la teoría química clásica, todas las interacciones químicas son por naturaleza o electrostáticas (polares) u orbitalarias (covalentes). Es una evidencia práctica, que las densidades electrónicas locales o cargas, son importantes en muchas reacciones químicas y en muchas propiedades químico-físicas de las moléculas. Así, los descriptores basados en las cargas han sido extensamente empleados como índices de reactividad química y como medidores de las interacciones intermoleculares débiles tal y como ocurre en las interacciones iónicas entre el fármaco y el receptor. Las cargas parciales sobre los átomos han sido utilizadas como índices de reactividad química estacionarios. Las densidades electrónicas σ y π por su parte, caracterizan la posible orientación de las interacciones químicas, por lo que son consideradas índices direccionales de reactividad. Por el contrario, las densidades electrónicas y las cargas netas sobre los átomos son consideradas índices de reactividad no direccionales. Energías de los orbitales moleculares:

Las energías HOMO y LUMO son los descriptores químico-cuánticos más populares. Se ha demostrado que estos orbitales juegan un papel muy importante en muchas de las reacciones químicas y en la formación de los complejos de transferencia de cargas. De acuerdo con la teoría de los orbitales moleculares fronteras (FMO) de la reactividad química, la formación de un estado de transición se debe a la interacción entre los orbitales fronteras HOMO y LUMO de las especies químicas reaccionantes. La energía HOMO está directamente relacionada con el potencial de ionización, y caracteriza la susceptibilidad de la molécula a ser atacada por electrófilos. La energía LUMO está directamente relacionada con la afinidad electrónica y caracteriza la afinidad de la molécula a ser atacada por nucleófilos.

Page 46: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

41

Superdeslocalizabilidades.

Este es un índice de reactividad de los orbitales ocupados y no ocupados y está relacionada con la contribución hecha por el átomo, a la estabilización en la energía de formación de un complejo de transferencia de carga con una segunda molécula, o la capacidad del reaccionante de establecer enlaces a través de transferencia de cargas. La distinción hecha entre nucleofílica y electrofílica están relacionadas con la naturaleza de la superdeslocalizabilidad, si esta es aceptora o donante respectivamente. Las superdeslocalizabilidades son conocidas también como índices de reactividad dinámica. A diferencia de los índices estáticos (cargas), que describen moléculas aisladas en su estado base, los índices dinámicos de reactividad se refieren a los estados transicionales en las reacciones. Polarizabilidad Molecular:

Se refiere a la polarización que puede sufrir una molécula por un campo eléctrico externo, cuya propiedad más significativa es su relación con el tamaño molecular o el volumen molar. Se ha demostrado que la polarizabilidad guarda relación con el coeficiente de partición; de ahí su aplicabilidad en estudios de relación estructura-actividad. Momento dipolo:

La polaridad de una molécula guarda una estrecha relación con varias propiedades físico-químicas. El momento dipolo de la molécula es un reflejo de la polaridad global de la molécula. Energías:

Las energías totales y los calores de formación de las moléculas son un reflejo de la estabilidad de las mismas, por lo que el empleo de estos índices puede conducir a la explicación del fenómeno estudiado. II4.3 Índices topológicos y topográficos.

La topología es aquella parte del álgebra que estudia las posiciones e interconexiones entre los elementos de un conjunto. Esta rama de la ciencia, aplicada a la estructura química ha dado origen a una disciplina llamada Topología Molecular que analiza precisamente las posiciones y las interconexiones entre los átomos de una molécula dada. De esta forma se lograría caracterizar estructuralmente los compuestos. Para definir dichos índices se representan por puntos los átomos de la molécula (excluyendo a los de hidrógeno) y por rayas o segmentos los enlaces. De tal manera se obtiene el grafo de la molécula o grafo químico como comúnmente se conoce. Con posterioridad se construye la matriz topológica cuyos elementos toman el valor de uno o cero en dependencia de si el átomo i está enlazado o no al átomo j. Así se genera una matriz cuadrada de n filas por n columnas, siendo n el número de vértices del grafo o lo que es lo mismo el número de átomos. El resultado del cálculo genera un valor numérico que representa o describe la estructura química de la molécula, por lo que este tipo de descriptores tienen una gran utilidad en los estudios QSAR.

Page 47: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

42

De esta forma se pueden generar matrices de adyacencia y matrices de distancias entre vértices. Las matrices de adyacencia describen la unión o no entre átomos y la de distancias los números de átomos existentes entre un átomo X y otro no enlazado a él. Sirva como ejemplo ilustrativo de la construcción de estas matrices la molécula de isopentano.

V3

V1

V2

V4

V5e1 e2 e3

e4

Α =

⎢⎢⎢⎢⎢⎢

⎥⎥⎥⎥⎥⎥

0 1 0 0 01 0 1 0 00 1 0 1 10 0 1 0 00 0 1 0 0

D =

⎢⎢⎢⎢⎢⎢

⎥⎥⎥⎥⎥⎥

0 1 2 3 31 0 1 2 22 1 0 1 13 2 1 0 23 2 1 2 0

Matriz de adyacencia entre vértices

Matriz de distancia Entre vértices

Observe que para la matriz de adyacencia, al átomo o vértice 1 (V1) le corresponden valores en la matriz, de 0 para su relación con los átomos 1, 3, 4 y 5 y valor de 1 con el vértice 2 (V2), pues es solamente con él, con quién se encuentra enlazado. Así mismo para V3 le corresponden valores en la matriz de 0 para los vértices 1 y 3 y valores de 1 para los átomos 2, 4, 5. De esta forma se obtiene un valor numérico que representa o describe la estructura molecular. En la matriz de distancia, a V1 se le asignan valores de 0, 1, 2, 3 y 3, pues ésta es el número de mínimo de átomos que lo separan de los átomos 1, 2, 3, 4 y 5. Esta es otra forma de describir el grafo químico a través de un valor numérico, pero utilizando en este caso las distancias mínimas que separan un átomo de otro. El grafo molecular puede ser subdividido en subgrafos en dependencia del número de ejes interconectados al vértice. Estos subgrafos se clasifican según su orden (m) y su tipo (t). El orden de un grafo no es más que el número de ejes o enlaces que contiene el vértice, considerando como simples a los enlaces múltiples. Los tipos de los subgrafos por otro lado se clasifican en tres tipos: ♦ Tipo Camino (p), que son aquellos subgrafos que la valencia (número de enlaces) de sus vértices

son menores o iguales que dos. Téngase en cuenta que los átomos de hidrógeno no se consideran en el grafo molecular.

♦ Tipo Cluster (c), constituido por aquellos subgrafos que tienen al menos algún vértice con valencia 3, 4 o mayor, pero ninguno con valencia de dos.

♦ Tipo Camino-cluster (pc) Son los subgrafos que incluyen vértices con valencias de dos, además de algunos con valencia de 3, 4 o mayor.

Page 48: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

43

Estos índices de conectividad mχt corresponden en cada caso a la suma de todos los subgrafos de tipo t y de orden m, y están relacionados con la ecuación 9:

∑=

=m

jj

mn

Stm

Ecuación 9

donde nm es el número de subgrafos tipo t y de orden m. Los términos mSj se definen como el inverso de la raíz cuadrada del producto de las valencias de los vértices integrantes del subgrafo, Donde j define un subgrafo en particular (ver figura 12). Sirva como ejemplos de subgrafos, la molécula de isopentano: Tipo (t) Orden (m) 1 2 3 4

Camino Cluster Camino- Cluster

Figura 12. Subgrafos del isopentano

Page 49: Introduccion al diseño racional de farmacos

J.C. Escalona, R. Carrasco y J. A. Padrón

Ciudad de La Habana : Editorial Universitaria, 2008. ISBN 978-959-16-0647-1

44

La definición de algunos de los índices obtenidos por esta metodología aparecen recogidos en la tabla siguiente:

ÍNDICE DEFINICIÓN

Conectividad Molecular (Randic) [ ]χ δ δ=

=∑ ( ) ( )

/

v vi jr

m1 2

1

Conectividad molecular extendido [ ]1

11

1 2χ δ δ δ= +=

−∑ ( ) ( ) ( )/

v v vi j lr

m

K

donde δ(vi), δ(vj), δ(vl+1) son los grados de los vértices en la cadena considerada

Conectividad de valencia [ ]1 1 2

1χ δ δv v v i jv

iv

jl

m

= ≠−

=∑ ( ) ( )

/

Para evitar el uso indiscriminado de este tipo de índice, uno de los más prestigiosos investigadores en esta área de la química ha propuesto que para la generación de nuevos índices de esta naturaleza, estos deben cumplir los siguientes atributos: Atributos deseables para los índices topológicos, según Randic: 1. Interpretación estructural directa. Indices basados en conceptos estructurales sencillos ayudan a

interpretar propiedades en términos de estructura química. 2. Buena correlación con al menos una propiedad. Esto sugiere el aspecto estructural dominante en

la propiedad. 3. Buena discriminación de isómeros. Necesario cuando la propiedad en estudio cambia con el

isómero. 4. Localmente definidos. Es decir, que no se obtengan de forma global, sino localmente como en los

índices de conectividad, en que se definen por la conectividad de cada átomo. 5. Generalizable a análogos superiores. Por ejemplo, los índices 1χ , 2χ , 3χ ,,etc. 6. Linealmente independientes. Permite describir información estructural no contenida en otros

índices. 7. Simplicidad. Facilita su interpretación. 8. Que no estén basados en propiedades físico-químicas. 9. Que no estén relacionados de manera trivial con otros índices. 10. Eficiencia de construcción. Facilita su cálculo. 11. Basados en conceptos estructurales familiares. 12. Mostrar una dependencia correcta con el tamaño. Las propiedades que dependen del tamaño y en

general, la selectividad de los índices disminuye con el tamaño del grafo. 13. Tener cambios graduales con cambios graduales en la estructura.

Page 50: Introduccion al diseño racional de farmacos

Introducción al diseño racional de fármacos

45

II4.4 Criterios de selección de parámetros.

No existe ningún criterio simple ni único, para seleccionar qué parámetros deben utilizarse en un estudio de relación estructura-actividad. Ante un problema nuevo se debe comenzar a buscar en la literatura trabajos previos realizados sobre el mismo tipo de productos, y de no encontrarse, sobre productos parecidos o con la misma actividad. En general, en esta primera etapa, cualquier tipo de información puede ser orientadora respecto a las características físico-químicas que pudieran intervenir en la actividad, y por tanto cuáles son los parámetros más adecuados para describirlas. No obstante, es posible encontrarse en situaciones en las cuales no se disponga de ninguna información previa; en esos casos, una solución inteligente es seleccionar algunos parámetros representativos de cada una de las propiedades físico-químicas, electrónicas, estéricas y estructurales de la molécula. Esta primera orientación, aunque no genere un buen modelo, podrá señalar cuáles de estos parámetros tiene una mayor influencia en la actividad y por tanto aumentar el número de índices que describen la misma en un segundo intento de análisis. II.5 SITUACIÓN ACTUAL Y TENDENCIAS FUTURAS DEL DISEÑO DE FÁRMACOS

ASISTIDO POR COMPUTADORAS.

El avance sostenido que ha experimentado la bioquímica y la biología molecular en la identificación de macromoléculas dianas, y de secuencias de nucleótidos y aminoácidos, unido a los poderosos sistemas computacionales, hacen posible en la actualidad, el estudio de preferencias configuracionales, de la naturaleza y las magnitudes de las fuerzas interatómicas que gobiernan su interacción, así como el comportamiento dinámico del complejo ligando-receptor. Estos procedimientos ayudan al mejor entendimiento del comportamiento de estos sistemas a nivel subcelular, permitiendo establecer comparaciones entre los datos teóricos y los experimentales, e incluso realizar predicciones cuantitativas. Teniendo en cuenta los avances que promete tener la farmacología molecular, es de suponer que el futuro del diseño de fármacos no esté destinado como hasta el presente, a la obtención de sustancias que puedan ser reconocidas por los receptores o que modulen la síntesis, metabolismo o recaptación de los neurotransmisores, sino que estará orientado a obtener sustancias que actúen sobre los sistemas enzimáticos activadores de la cascada de eventos que lleva consigo una respuesta farmacológica. Entiéndase por sistemas enzimáticos activadores de la cascada de eventos a las proteinas G o cualquiera de sus subunidades, las enzimas formadoras de mensajeros secundarios y las proteina-quinasas entre otras. El hecho de que no siempre es mejor actuar sobre los receptores lo sugiere el hecho de que frente a una exposición continua del agonista o del antagonista, se producen fenómenos de desensibilización o supersensibilidad, que pueden ser responsables de nuevas alteraciones fisiológicas. El influir mediante estos fármacos sobre estos mecanismos intermediarios entre el receptor y el efector, pueden dar origen a sustancias muy selectivas que operen sobre las células que padezcan la disfunción.