2021

La Academia Noruega de Ciencias y Letras ha resuelto conceder el Premio Abel 2021 a

László Lovász de la Universidad Eötvös Loránd de del Instituto de Estudios Avanzados Budapest, Hungría y de Princeton, EE. UU.,

«por sus contribuciones fundamentales a la ciencia computacional teórica y a las matemáticas discretas, y su destacado papel en el desarrollo como campo central de las matemáticas modernas».

La ciencia computacional teórica (TCS por sus proporciona la base de la criptografía y actualmente siglas en inglés) es el estudio del poder y las tiene una creciente influencia en muchas otras limitaciones de la computación. Sus orígenes se ciencias, lo que lleva a adoptar nuevas perspectivas remontan a los trabajos fundamentales de Kurt con el «empleo de una lente computacional». Gödel, Alonzo Church, Alan Turing y John von Estructuras discretas, como los grafos, las Neumann, lo que llevó al desarrollo de auténticos secuencias y las permutaciones, son fundamentales ordenadores físicos. La TCS se compone de dos para la TCS y, de forma natural, las matemáticas subdisciplinas complementarias: el diseño de discretas y la TCS han estado estrechamente algoritmos que desarrollan métodos eficientes para vinculadas. Mientras estos dos campos se han una gran variedad de problemas computacionales beneficiado en gran medida de áreas de las y la complejidad computacional que muestra las matemáticas más tradicionales, también ha habido limitaciones inherentes en la eficiencia de los una creciente influencia en la dirección opuesta. algoritmos. El concepto de algoritmos de tiempo Las aplicaciones, los conceptos y las técnicas de la polinómico presentado en los años sesenta por TCS han dado lugar a nuevos retos, han permitido Alan Cobham, Jack Edmonds y otros, y la famosa nuevos enfoques de investigación y han resuelto conjetura P≠NP de Stephen Cook, y importantes problemas abiertos en las matemáticas Richard Karp tuvieron gran impacto en este campo y puras y aplicadas. en el trabajo de Lovász y Wigderson. László Lovász y Avi Wigderson han liderado estos Además del enorme impacto en las ciencias de la avances durante las últimas décadas. Sus trabajos computación en general y en la práctica, la TCS se entrelazan en muchos sentidos y, en particular, los dos han contribuido en gran medida a entender la el papel de la aleatoriedad en la informática. Un aleatoriedad en computación y a explorar los límites algoritmo aleatorizado es aquel que lanza monedas de la computación eficiente. para calcular una solución correcta con gran probabilidad. Durante décadas, los investigadores De la mano de Arjen Lenstra y Hendrik Lenstra, descubrieron algoritmos deterministas para varios László Lovász desarrolló el algoritmo de problemas para los cuales solo se conocía un simplificación de retículos LLL. Para un retículo algoritmo aleatorizado. El algoritmo determinista entero en dimensiones altas, el algoritmo LLL para pruebas de primalidad de Agrawal, produce una buena base casi ortogonal. Además de Kayal y Saxena es un llamativo ejemplo de tal tener varias aplicaciones, como un algoritmo para algoritmo desaleatorizado. Estos resultados de factorizar polinomios de coeficientes racionales, la desaleatorización plantean la pregunta de si la el algoritmo LLL es una herramienta preferida en aleatoriedad es realmente esencial. En trabajos con criptoanálisis, rompiendo con éxito otros sistemas László Babai, , Noam Nisan y Russell de encriptación. Sorprendentemente, el análisis Impagliazzo, Wigderson demostró que la respuesta del algoritmo LLL también se utiliza para diseñar y es probablemente negativa. Formalmente, mostraron garantizar la seguridad de los criptosistemas más una conjetura computacional, similar en espíritu al recientes basados en retículos que parecen resistir de la conjetura P≠NP, que implica que P=BPP. Esto a ataques incluso de ordenadores cuánticos. Para significa que todo algoritmo aleatorizado puede algunas encriptaciones exóticas primitivas, como desaleatorizarse y convertirse en uno determinista de la homomórfica, las únicas construcciones eficiencia comparable; además la desaleatorización conocidas son a través de estos criptosistemas es genérica y universal, independientemente de los basados en retículos. detalles internos del algoritmo aleatorizado.

El algoritmo LLL es una de las muchas Otra forma de interpretar este trabajo es como un contribuciones visionarias de Lovász. También es el equilibrio entre complejidad y aleatoriedad: si existe autor del «Lema local», una herramienta única para un problema lo suficientemente complejo, entonces demostrar la existencia de objetos combinatorios la aleatoriedad se puede simular mediante algoritmos cuya existencia es poco frecuente, a diferencia del deterministas eficientes. Trabajos posteriores de método de probabilidad estándar empleado cuando Wigderson con Impagliazzo y Valentine Kabanets los objetos existen en abundancia. Junto con Martin demuestran el recíproco: algoritmos eficientes Grötschel y Lex Schrijver, mostró cómo resolver deterministas incluso para problemas específicos programas semidefinidos de forma eficiente, lo que con algoritmos aleatorizados conocidos implican la produjo una revolución en el diseño de algoritmos. existencia de tales problemas complejos. Contribuyó a la teoría de los paseos aleatorios con aplicaciones a problemas isoperimétricos euclídeos Este trabajo está estrechamente ligado a la y al cálculo del volumen aproximado de cuerpos de construcción de objetos pseudoaleatorios (que grandes dimensiones. Su trabajo en colaboración parecen aleatorios). Los trabajos de Wigderson con , , , y han construido generadores pseudoaleatorios sobre demostraciones verificables que convierten pocos bits realmente aleatorios probabilísticamente ofreció una primera versión del en muchos bits pseudoaleatorios, extractores teorema PCP, ¡un resultado muy influyente sobre que extraen bits casi perfectamente aleatorios de la posibilidad de verificar con alta probabilidad una fuente de aleatoriedad imperfecta, grafos de demostraciones matemáticas leyendo únicamente Ramsey y grafos de expansión dispersos y, aun así, un pequeño número de signos! Además, resolvió tienen una gran conectividad. Con antiguos problemas como la conjetura del grafo y introdujo el producto de grafos en perfecto, la conjetura de Kneser, determinando la zigzag, proporcionando un método elemental para capacidad de Shannon del grafo pentagonal y, en los construir grafos de expansión e inspirando la prueba últimos años, desarrolló la teoría de grafos límite (en combinatoria del teorema PCP por y un colaboración con Christian Borgs, Jennifer Chayes, algoritmo eficiente de memoria para el problema Lex Schrijver, Vera Sós, Balázs Szegedy, y Katalin de Reingold de conectividad de grafos. Este último Vesztergombi). Este trabajo combina elementos de ofrece un método para navegar por un amplio teoría de grafos extremales, teoría de la probabilidad laberinto recordando solamente la identidad de un y física estadística. número constante de puntos de intersección.

Avi Widgerson ha hecho enormes y exhaustivas Otras contribuciones de Wigderson incluyen las contribuciones en todos los aspectos de la demostraciones de conocimiento cero que presentan complejidad computacional, especialmente en verificaciones para enunciados sin revelar ninguna información adicional aparte de la validez del campo de la ciencia computacional teórica se enunciado, y cotas inferiores de la eficiencia de han consolidado como áreas centrales de las los protocolos de comunicación, los circuitos y los matemáticas modernas. sistemas de demostraciones formales.

Gracias al liderazgo de Lovász y Wigderson, las matemáticas discretas y el relativamente joven