Les lundis, à partir de 14h - UPEC CMC - Salle P2-131

11 février 2019

Two-Way Parikh Automata with a Visibly Pushdown Stack

Luc Dartois (LACL UPEC)

In this talk we investigate the complexity of the emptiness problem for Parikh automata equipped with a pushdown stack.
Pushdown Parikh automata extend pushdown automata with counters which can only be incremented and an acceptance condition given as a semi-linear set, which we represent as an existential Presburger formula over the final values of the counters. The non-emptiness problem both in the deterministic and non-deterministic cases is NP-c. If the input head can move in a two-way fashion, emptiness gets undecidable, even if the automaton deterministic.
We shift our focus to Visibly Pushdown Automata (read automata on XML documents) and we recover decidability using the single-use syntactic restriction, enforcing that any transition which increments at least one dimension is triggered only a bounded number of times per input position.
The main result showed in this talk is that non-emptiness of two-way visibly Parikh automata which are single-use is NExpTime-c.
We finally give applications of this result to decision problems for expressive transducer models from nested words (again read XML documents) to words, including the equivalence problem.

4 février 2019

Bornes inférieures dans les circuits arithmétiques : un focus sur la profondeur constante

Sébastien Tavenas (LAMA - Université de Savoie)

Le problème “P=NP?” est largement reconnu comme le principal problème ouvert en informatique théorique. Étant donné la difficulté de ce problème, des versions algébriques, un peu plus faibles, ont été définies. On espère alors que des méthodes géométriques ou algébriques seront plus faciles à appliquer. On s’intéressera à une version “VP=VNP?” proposée par Leslie Valiant à la fin des années 70 où on étudie la complexité de l’évaluation des polynômes. Le contenu algorithmique de ce problème peut être résumé en une phrase : est-il possible d’évaluer le permanent d’une matrice n*n en un nombre d’opérations arithmétiques polynomial en n ?
On présentera ce problème, puis on s’intéressera plus particulièrement à une de ses caractéristiques (connue depuis 1983) qui le différencie de son homologue Booléen : tout polynôme qui est efficacement calculable est aussi efficacement parallélisable. Ainsi, pour obtenir des bornes inférieures dans le cas général, il est suffisant de trouver des bornes “assez bonnes” en petite profondeur. On finira alors par exhiber des bornes inférieures (malheureusement insuffisantes pour résoudre VP=VNP) en profondeur 3 et 4.

28 janvier 2019

Points apériodiques dans les sous-shifts de dimension 2

Anael Grandjean (LACL UPEC)

La théorie des espaces de pavages (sous-shifts) a été profondément façonnée par le résultat historique de Berger : un jeu de tuiles fini peut ne paver le plan que de manière apériodique. Ces points apériodiques sont au coeur de nombreuses directions de recherche du domaine, en mathématiques comme en informatique. Dans cette exposé, nous répondons aux questions suivantes en dimension 2 :

Quelle est la complexité calculatoire de déterminer si un jeu de tuiles (espace de type fini) possède un point apériodique ?
Comment se comportent les espaces de pavages ne possédant aucun point apériodique ?

Nous montrons qu’un espace de pavage 2D sans point apériodique a une structure très forte : il est “équivalent” (presque conjugué) à un espace de pavage 1D, et ce résultat s’applique aux espaces de type fini ou non. Nous en déduisons que le problème de posséder un point apériodique est co-récursivement-énumérable-complet, et que la plupart des propriétés et méthodes propres au cas 1D s’appliquent aux espaces 2D sans point apériodique. La situation en dimension supérieure semble beaucoup moins claire.

Cet exposé est issu d’une collaboration avec Benjamin Hellouin de Menibus et Pascal Vanier

7 janvier 2019

The Automotive Analytics Factory as a Big Data Concept

Daniel NEAGU (Daniel NEAGU)

Big data is currently the new commodity empowering Industry 4.0 towards an effective digital economy.
Current developments in data gathering using sensors and data-driven technologies connected through the Internet of Things enable automotive industry among others to join the efforts to process data into information with the aim to extract knowledge and generate intelligent actions. For example the automotive industry invests in big data systems from the car lifecycle, including product development and vehicles in the field to R&D. Consequently the
demand for effective big data processes increases, with challenges derived from both scarcity of effective tools and expertise to issues regarding data quality and model management.
This talk reviews the journey of the Advanced Automotive Analytics (AAA) team at the University of Bradford, with details and examples of recent and current contributions. The team’s vision of the Automotive Analytics Factory as the emerging model for an integration of data, models and tools applied to
the vehicle lifecycle is introduced with references to AAA research projects, publications and events.

3 décembre 2018

Descriptive distributed complexity

Fabian Reiter (IRIF)

This talk connects two classical areas of theoretical computer science:
descriptive complexity and distributed computing. The former is a branch of
computational complexity theory that characterizes complexity classes in terms
of equivalent logical formalisms. The latter studies algorithms that run in
networks of interconnected processors.

Although an active field of research since the late 1970s, distributed computing
is still lacking the analogue of a complexity theory. One reason for this may be
the large number of distinct models of distributed computation, which make it
rather difficult to develop a unified formal framework. In my talk, I will
outline how the descriptive approach, i.e., connections to logic, could be
helpful in this regard.

26 novembre 2018

Algorithmique polynomiale sans mémoire

Bruno Grenet (LIRMM - Université de Montpellier)

Le calcul formel s’intéresse à l’algorithmique des objets mathématiques exacts, en particulier des polynômes et des matrices. Depuis les années 1960, de nombreux algorithmes ont été proposés pour atteindre des complexités temporelles quasi-optimales (quasi-linéaires en la taille des entrées et des sorties) pour manipuler des polynômes. Dans ce travail, nous nous intéressons à obtenir des versions efficaces en mémoire de ces algorithmes, c’est-à-dire des algorithmes qui n’utilisent qu’une mémoire constante en plus des registres d’entrée et de sortie.

Nous développons pour ce faire des méthodes génériques de réduction qui permettent de transformer n’importe quel algorithme pour une tâche donnée en un algorithme de même complexité temporelle asymptotique, et de complexité spatiale améliorée, dans la veine des réductions pour la complexité à grain fin. Dans l’exposé, nous nous concentrerons sur les problèmes basiques autour de la multiplication de polynômes et évoquerons brièvement les extensions à d’autres problèmes comme la division euclidienne ou l’interpolation.

Travail en cours, en commun avec Pascal Giorgi et Daniel S. Roche.

19 novembre 2018

Trace Metrics for Nondeterministic Probabilistic Processes

Valentina Castiglioni (LIX - Ecole Polytechnique)

When probabilistic aspects of process behavior are taken into account, reason-
ing in terms of behavioral equivalences is only partially satisfactory: any tiny
variation in the values of the probabilities, which may be also due to a measure-
ment errors or approximations, will break process equivalence without giving
any further information on the differences in their behaviors. For this reason,
behavioral metrics have been proposed. The idea is to define, for each semantics,
a proper notion of distance on processes allowing us to quantify the differences
in the behavior of processes with respect to that particular semantics.
However, the interplay of nondeterminism and probability, typical of prob-
abilistic automata, leads to several possible expressions for process behavior,
thus making the definition of a proper metric subject to interpretations.
In this talk, we will discuss this issue by considering linear properties only.
In detail, we will present three main approaches to probabilistic trace seman-
tics: the trace distributions, the trace-by-trace and the supremal probabilities
approaches. For each of them we will propose a notion of trace metric, mea-
suring the disparities in the linear behavior of processes, and we will compare
these metrics with respect to their properties and their distinguishing power.

12 novembre 2018

Enumerating pattern matches in texts and trees

Antoine Amarilli (Télécom ParisTech)

We study the data management task of extracting structured
information from unstructured documents, e.g., raw text or HTML pages.
We use the framework of document spanners, where the pattern to extract
is specified declaratively by the user (as a regular expression with
capture variables) and is translated to an automaton that then is
evaluated on the document to compute the pattern matches. We focus on
the last step of this pipeline: our goal is to efficiently find the
matches of the automaton on the document, even when there can be many of
them. We do this by proposing an enumeration algorithm, which first
preprocesses the automaton and document, and then enumerates all matches
with a small delay between consecutive matches. Unlike previous work,
our algorithm achieves the best possible bounds in the input document
(namely, linear preprocessing and constant delay), while remaining
tractable in the automaton. The guiding principle of the algorithm is to
compute a factorized representation of all matches as a product of the
automaton and document, and design efficient indexes based on the
structure of this representation. We also present our ongoing follow-up
work, e.g., how to extend our algorithm to the case of tree-shaped
documents by efficiently enumerating the matches of tree automata, how
to efficiently update the enumeration results when the input document
changes, and other open research directions.

15 octobre 2018

Modélisation et utilisation de ressources et services Web et indexation de données dans un contexte d’incertitude.

Asma Omri (LIRIS - UCBL)

Il est communément admis que la production de données connait, depuis plusieurs années, un développement spectaculaire en raison de la multiplication des nouvelles technologies telles que les réseaux sociaux, les nouveaux appareils mobiles, les compteurs intelligents, les capteurs et le cloud computing. De fait, cette explosion de données devrait se poursuivre et même accélérer. S’interroger sur la façon dont on devrait traiter cette masse de qui devient de plus en plus variée, complexe et moins structurée, est alors essentiel. DaaS ( Data As A Service) peut être définie comme l’approvisionnement, la gestion et la fourniture de données présentées dans un format immédiatement consommable aux utilisateurs professionnels des organisations en tant que service. Les données retournées par ces services se caractérisent généralement par l’incertitude et l’hétérogénéité.
Nombreux sont les approches qui traitent les données selon le cycle de vie du service Web qui repose sur 6 phases à savoir la création, la sélection, la découverte, la modélisation, l’invocation et la composition des services, dans le but de résoudre le problème de volume de données, de son hétérogénéité ou de sa vitesse d’évolution. En revanche, il y a très peu d’approches qui s’intéressent à la qualité de données et au traitement de son incertitude dans le Web.
Nous nous sommes naturellement intéressés, dans cette thèse, à la question des services Web dans un contexte de systèmes distribués et hétérogènes. La principale contribution à apporter dans le cadre de ce travail de recherche est d’étudier la composition de services et/ou de ressources Web et l’indexation de données dans un contexte incertain.
Dans un premier temps, au travers des apports de la littérature, le cadre théorique relatif aux spécificités du concept de service DaaS incertain, est présenté en adoptant la théorie possibiliste. Le problème de la composition de services Web et l’impact de l’incertitude, qui peut être associée à la sortie d’un service, sur les processus de sélection et de composition des services sont explicités. Pour ce faire, nous avons proposé une approche possibiliste afin de modéliser l’incertitude des données renvoyées par des services incertains. Plus précisément, nous avons étendu les normes de description de service Web (par exemple, WSDL) pour représenter les degrés d’incertitude des sorties. Nous avons également étendu le processus d’invocation de service pour prendre en compte l’incertitude des données d’entrée. Cette extension est basée sur la théorie des mondes possibles utilisée dans les bases de données possibilistes. Nous avons également mis en avant un ensemble d’opérateurs de composition, sensibles aux valeurs d’incertitude, dans le but d’orchestrer des services de données incertains.
Dans un deuxième temps, nous avons étudié l’impact de l’incertitude sur la représentation et la manipulation des ressources Web. Nous avons défini le concept de ressource Web incertaine et proposé des mécanismes de composition de ressources. Pour ce faire, un modèle de description de l’incertitude à travers le concept de ressource Web incertaine a été présenté. Celui-ci est basé sur un modèle probabiliste où chaque ressource peut avoir plusieurs représentations possibles, avec une certaine probabilité.
Enfin, et dans un dernier temps, nous avons proposé des méthodes d’indexation documentaire des données de type Big Data. Au commencement, nous avons adopté une approche d’indexation syntaxique de données incertaines, ensuite, nous avons suivi une méthode d’indexation sémantique incertaine. Enfin, et pour booster cette démarche, nous avons proposé une méthode hybride d’indexation dans un contexte incertain.

8 octobre 2018

Modèle géométriques de programmes concurrents conservatifs

Emmanuel Haucourt (LIX - Ecole Polytechnique)

Un programme concurrent est constitué de plusieurs processus
séquentiels qui s'exécutent simultanément et partagent des ressources.
Pour un processus séquentiel standard, le graphe de flot de contrôle
(GFC) est une sur-approximation classique (et omniprésente dans les
compilateurs et analyseurs statiques) de l'ensemble des traces
d'exécutions du programme. La propriété cruciale du graphe de flot de
contrôle est sa finitude. Définir l'équivalent de cette structure pour
les programmes concurrents n'a rien d'évident. La solution que l'on
propose est basée sur la notion d'espace partiellement ordonné. À chaque
GFC on associe sa réalisation géométrique dirigée, qui consiste à
remplacer chaque flèche du GFC par une copie du segment unité [0,1]
joignant la source de la flèche à son but. Un programme parallèle
constitué des processus séquentiels P_1,...,P_n sera alors représenté
par un sous-espace du produit cartésien E = G_1 x ... x G_n où G_i est
la réalisation du GFC's du i-ème processus. En effet, sous l'hypothèse
que le programme considéré est conservatif, on peut définir une fonction
de potentiel qui associe à chaque point de E la quantité de ressources
nécessaire au fonctionnement du programme en ce point. Si cette quantité
dépasse la quantité de ressources disponible, alors le point est
«interdit». L'ensemble des points interdits forme une sous partie de E
dont le complémentaire M est le modèle géométrique du programme. 
On a les résultats suivants:
1) les chemins (continus) dirigés sur M forment une sur-approximation de
l'ensemble des traces d'exécutions du programme
2) chaque chemin f possède un voisinage V dont tous les éléments g (qui
sont eux-mêmes des chemins dirigés sur M) son équivalent à f au sens où
l'état de la mémoire
de la machine abstraite à la fin de l'exécution de g ne dépend pas de g
3) l'ensemble des traces d'exécution forment un ouvert de l'espace des
chemins dirigés sur M
4) les modèles géométriques appartiennent à une classe d'objets qui
satisfait une propriété de décomposition unique vis-à-vis du produit
cartésien. À partir de la décomposition du modèle géométrique d'un
programme, on peut regrouper ses processus de manière à obtenir des
sous-programmes indépendants.

Les constructions et résultats annoncés ci-dessus seront illustrés de
nombreux exemples. :-)