L'Open Finance face à l'impératif de confiance : L'intégration nécessaire des infrastructures d'identité nationales pour pallier les carences structurelles de FIDA en matière de RGPD, par Wing Han Angela LAW

À la lumière de la réforme du DGCL du 25 mars 2025, le droit américain renforce son attachement à l’intérêt économique et au capitalisme à travers les pouvoirs et mécanismes procéduraux encadrant la figure de l’actionnaire majoritaire. L’entreprise américaine est symbole de compétition, tandis que le modèle français privilégie l’intérêt social en restreignant l’actionnaire majoritaire pour le bien commun à travers un contrôle strict, offrant une vision plus collective de l’entreprise.

Résumé

Face aux atteintes aux droits humains et à l’environnement causées par les multinationales, les réponses juridiques diffèrent. En 2017, la France a instauré un devoir de vigilance imposant une responsabilité préventive aux sociétés mères. Aux États-Unis, l’Alien Tort Statute de 1789, longtemps mobilisé par les victimes étrangères, a vu sa portée fortement restreinte par la Cour suprême. Deux visions opposées de la corporate liability et du rôle de l’entreprise s’affrontent.

Résumé : La directive (UE) 2024/2853 harmonise la responsabilité du fait des produits défectueux en incluant les logiciels et l’intelligence artificielle dans la notion de « produit ». Elle instaure une responsabilité objective, mais n’offre pas aux victimes des dommages causés par l’IA les mêmes garanties que certains droits nationaux, notamment français et italien, en matière de charge de la preuve et d’exonération de responsabilité.

 

Dans le secteur du recrutement, l’intelligence artificielle (IA) filtre désormais les candidatures via des algorithmes opaques, les exposant à des biais difficilement détectables et contestables. En Ontario, le Bill 149 n’impose qu’une simple obligation d’information du candidat, tandis qu’en France, le droit interne, le RGPD et l’AI Act instaurent un encadrement dense. Pourtant, ces deux modèles, minimaliste et interventionniste, peinent à protéger efficacement les candidats face à l’opacité algorithmique.

Les limites juridiques du moissonnage biométrique à l'ère du numérique : étude comparée de la jurisprudence française et britannique relative à Clearview AI

Par Cassandre Roger

 

            Dans le secteur du recrutement, l’intelligence artificielle (IA) filtre désormais les candidatures via des algorithmes opaques, les exposant à des biais[1]  difficilement détectables et contestables. En Ontario, le Bill 149 n’impose qu’une simple obligation d’information du candidat, tandis qu’en France, le droit interne, le RGPD et l’AI Act instaurent un encadrement dense.

Le droit à la nationalité conditionne l’exercice d’autres droits et son absence, l’apatridie, porte une atteinte aux droits de l’homme. La Convention américaine des droits de l’homme reconnaît explicitement le droit à la nationalité et interdit de créer des cas d’apatridie. En revanche, la Convention européenne des droits de l’homme ne le protège que de manière indirecte, à travers le respect du droit à la vie privée et familiale.

Les comportements déloyaux et parasitaires se développent en ligne à grande vitesse par des actions telles que le cybersquat, le spamdexing ou le typosquat. Ces actes déloyaux ne sont pas envisagés de la même manière dans les régimes juridiques français et allemand. L’un encadre, sur une base prétorienne, souplement, l’autre régit par la codification de ses règles. Une décision récente du Tribunal régional de Düsseldorf du 10 février 2025 illustre un de ces actes particuliers de concurrence déloyale en ligne. Elle sera comparée à une décision française du Tribunal judiciaire de Paris du 9 janvier 2025 exposant un acte de parasitisme en ligne.

Les outils numériques ont profondément modifié nos modes d’expression et de communication. Persuadés d’échanger dans des espaces privés confidentiels, certains salariés tiennent parfois des propos insultants et inappropriés frôlant la morale ou la bienséance à l’égard de leur employeur sur des messageries ou groupes de discussion privés comme WhatsApp et Messenger. Mais que se passe-t-il lorsque ces échanges tombent malencontreusement entre les mains de ce dernier et qu’il décide d’un licenciement disciplinaire alors même qu’ils n’étaient pas destinés à être divulgués ? C’est à cette question que la Cour fédérale du travail allemande a répondu dans un arrêt du 24 août 2023 et que nous allons étudier.