Curant la #artint en ciència i en educació superior

D’ara endavant miraré d’anar recollint la informació que trobi per la xarxa referent a dos camps de la intel·ligència artificial: el seu ús en educació superior, i el seu ús en la ciència en general, sobretot en la química i en les disciplines properes, és a dir, al “lloc central de la ciència”.

La motivació em va venir donada la meva assistència a la jornada FIETxs a Barcelona, on hi va haver una taula rodona sobre l’ús de l’#artint en educació (a tots els nivells, sobretot primària i secundària).

(1) He vist que es fa el seminari Artificial Intelligence (AI) Solutions for Computational Chemistry and Organic Chemistry Tasks al SDSC:

In this talk, we will present a fully transferable deep learning molecular potential that is applicable to complex and diverse molecular systems. Focusing on parametrization for organic molecules (with CHNOSFCl atoms so far), we have developed ANI neural network potential which is highly accurate compared to reference QM calculations at speeds 10^7 faster. The ANI potential is shown to accurately represent the underlying physical chemistry of molecules through various test cases including chemical reactions (both thermodynamics and kinetics), thermochemistry, structural optimization, solvent effect, and molecular dynamics simulations. The results presented in this talk will provide evidence of the general applicability of ANI potential to various organic chemistry problems along the drug discovery and development pipeline.

(2) L’article Comparison of SMILES-, DeepSMILES-, SELFIES-, and graph-based genetic algorithms és molt interessant. De fet, desenvolupa una altra entrada: Comparison of SMILES-, DeepSMILES- and graph-based genetic algorithms. De fet, això de “selfies” no va de fotos, sinó d’una modificació d’algoritme genètic: SELFIES: a robust representation of semantically constrained graphs with an example application in chemistry.

(3) M’ha semblant molt rellevant aquest article sobre la petjada energètica de la #artint: Training a modest machine-learning model uses more carbon than the manufacturing and lifetime use of five automobiles. Aquí hi ha dues consideracions a fer: primer, que la #artint té un elevat cost energètic; i segon, que les institucions públiques de recerca no tenen recursos per estudiar-ho, i només ho poden fer grans empreses:

the computational intensity of today’s machine learning research has priced it outside the realm of most academic researchers, moving the most important work in the field to private firms whose research doesn’t necessarily contribute to our collective store of knowledge.

(4) Una quarta referència: Teaching a Neural Network How to Drive a Car és un altre exemple de com un programa pot “aprendre” tot sol a fer una cosa, igual que en el seu moment va aprendre a resoldre el Cub de Rubik. Volia fer-ho amb el Quatre en Ratlla, encara que algú ja hi ha pensat: Creating the (nearly) perfect connect-four bot with limited move time and file size.

(5) S’ha fet servir l’#artinit per desenvolupar un potencial de mecànica molecular (crec) perquè dongui resultats el més propers possible als DFT: ANI-1: an extensible neural network potential with DFT accuracy at force field computational cost. Una aplicació que mereix analitzar-la i reflexionar sobre què significa des del punt de vista (bio)químic computacional.

D’altres vegades he curat contingut d’#artint, però ara miraré de fer-ho més sovint.

Encara em queda la computació quàntica, és clar… espero haver pogut acabar el curs a Brilliant.