Novo estudo: potencial duplo da IA em descobertas biológicas desvendado por pesquisadores da CMU
São PauloPesquisadores da Escola de Ciência da Computação da Universidade Carnegie Mellon desenvolveram novas diretrizes para a utilização de métodos interpretáveis de aprendizado de máquina na biologia computacional. Essas diretrizes têm o objetivo de enfrentar desafios cruciais e proporcionar oportunidades de uma compreensão mais aprofundada. Modelos de aprendizado de máquina já são fundamentais na análise de dados biomédicos, como sequências genômicas e imagens biológicas. No entanto, entender como esses modelos funcionam é essencial para descobrir processos biológicos relacionados à saúde e doença.
O estudo propõe várias recomendações importantes:
- Utilizando diversos métodos interpretáveis de aprendizado de máquina.
- Ajustando uma variedade de hiperparâmetros.
- Evitando a seleção tendenciosa de resultados.
Um Problema, Várias Soluções: A Importância de Diversificar Abordagens em Modelos de Machine Learning
Um dos problemas de utilizar apenas um método para entender modelos de machine learning é que isso pode levar a interpretações equivocadas. Os pesquisadores recomendam o uso de várias técnicas para obter uma visão mais precisa sobre o funcionamento real dos modelos. Assim, os resultados se tornam mais confiáveis.
A empolgação em torno da interpretabilidade em aprendizado de máquina é grande, mas ainda não trouxe soluções de fácil uso. À medida que os modelos preditivos se tornam mais complexos, compreender como e por que eles fazem determinadas previsões é essencial, especialmente em áreas como a biomedicina. Pesquisadores da CMU afirmam que entender o funcionamento dos modelos é fundamental para descobrir processos biológicos básicos.
13 de outubro de 2024 · 11:14
IA impulsiona descoberta de materiais energéticos e quânticos inovadores com eficiência aprimorada
Avaliar modelos de maneira inadequada pode resultar em conclusões tendenciosas. O artigo enfatiza a importância de evitar a seleção apenas de resultados positivos. Tal prática pode tornar as descobertas científicas incompletas ou enganosas. É fundamental considerar cuidadosamente os fatores humanos ao desenvolver e utilizar métodos de aprendizado de máquina que sejam fáceis de entender. Isso inclui conhecer quem utilizará esses métodos e compreender como eles serão usados e avaliados.
Docentes e doutorandos da CMU colaboraram na análise de vários artigos de biologia computacional. Eles descobriram que o uso do aprendizado de máquina interpretável frequentemente era inconsistente. Os pesquisadores desejam criar diretrizes padronizadas para tornar esses métodos mais confiáveis e uniformes.
Essas diretrizes impactam muitas pessoas. Elas auxiliam pesquisadores que estudam o funcionamento de grandes modelos de linguagem e outros sistemas complexos de IA. Essas regras ajudam a explicar por que certas previsões são feitas, o que pode beneficiar enormemente a pesquisa científica e médica.
O foco em tornar a IA mais compreensível está alinhado com a tendência de desenvolver IA de confiança para os usuários. Isso ressalta a importância da colaboração entre diferentes áreas do conhecimento. Esses esforços ajudarão a garantir que as ferramentas de IA possam ser amplamente e eficazmente utilizadas em trabalhos científicos relevantes. À medida que os modelos de aprendizado de máquina evoluem, também devem evoluir as maneiras de interpretá-los com precisão. Este estudo pode levar a usos da IA mais informados e impactantes na biologia.
As diretrizes apresentadas neste artigo não são exclusivas para biólogos computacionais. Elas também podem auxiliar pesquisadores de aprendizado de máquina a desenvolver métodos e ferramentas que sejam precisos e de fácil compreensão. Esse foco pode aprimorar o papel da inteligência artificial na realização de descobertas científicas, especialmente na compreensão de sistemas biológicos complexos.
O estudo é publicado aqui:
http://dx.doi.org/10.1038/s41592-024-02359-7e sua citação oficial - incluindo autores e revista - é
Valerie Chen, Muyu Yang, Wenbo Cui, Joon Sik Kim, Ameet Talwalkar, Jian Ma. Applying interpretable machine learning in computational biology—pitfalls, recommendations and opportunities for new developments. Nature Methods, 2024; 21 (8): 1454 DOI: 10.1038/s41592-024-02359-713 de outubro de 2024 · 11:14
IA impulsiona descoberta de materiais energéticos e quânticos inovadores com eficiência aprimorada
12 de outubro de 2024 · 11:42
Mudança Estrutural da OpenAI: impacto na missão e lucro potencial
12 de outubro de 2024 · 09:40
A ascensão da OpenAI: de humilde começo a gigante de $157 bi
10 de outubro de 2024 · 21:15
Nobel Geoffrey Hinton alerta sobre riscos da IA para humanidade
Compartilhar este artigo