Technology Outlook 2017

Technology Outlook SI

Le Technology Outlook s’est imposé comme un symposium annuel de la Société suisse d’informatique. Il aborde traditionnellement des sujets de numérisation socialement pertinents dans le contexte des mégatendances de la virtualisation, de la personnalisation, de l’automatisation, des grandes données, etc. et discute de leurs effets à long terme, positifs et négatifs, sur la société et le monde dans lequel nous vivons “d’un point de vue supérieur”, pour ainsi dire. Des intervenants internationaux de haut niveau issus du monde universitaire présenteront des résultats parfois étonnants du contexte de leur recherche en termes généralement compréhensibles et répondront aux questions du modérateur et du public dans le cadre d’une table ronde. Cette année, les thèmes principaux comprennent les Big Data et leurs utilisations, l’interaction homme-machine, la puissance des algorithmes, la démocratie numérique, le cyber-profilage et la sécurité des logiciels. Restez informé des développements numériques par un expert désigné et ne manquez pas de participer à Technology Outlook dans le prestigieux Auditorium Maximum de l’ETH Zurich.

 

Programme

Moderation, Priska Altorfer

09:30 – 10:00 Registration

10:00 – 10:50 David Gugerli, ETH Zürich, Collegium Helveticum, Zürich
„Digitale Gesellschaft“

10:50 – 11:40 Ursula Münch, Akademie für politische Bildung, Tutzing
„Disruptive Demokratie? Die Bedeutung der Digitalisierung für Politik und Gesellschaft“

11:40 – 12:30 Kevin Koidl, Trinity College, Dublin
“Know Thyself. Are we aware of our digital self?“

12:30 – 14:00 Lunch

14:00 – 14:50 Michael Hampe, ETH, Zürich
“Maschinen als Metaphern für das menschliche Wesen”

14:50 – 15:40 Matthias Spielkamp, iRights Lab und AlgorithmicWatch, Berlin
„Tod durch Tesla? Warum wir eine andere Diskussion über Algorithmen brauchen.”

15:40 – 16:30 Bernhard Hämmerli, Hochschule, Luzern
“Programmentwicklung und Sicherheit: ein Widerspruch?“

16:30 – 17:30 Round-Table-Gespräch mit allen Referenten zum Thema “Homo Digitals”

 

Résumé

Société numérique, David Gugerli

Cet article explore la question de savoir comment l’émergence d’une société numérique peut être expliquée. Le point de départ est l’observation que la “société numérique” en tant que forme d’autodescription sociale n’a commencé à se répandre qu’au milieu des années 80, c’est-à-dire près de quatre décennies après que les ordinateurs numériques ont également été utilisés en dehors du complexe militaro-académique. Le cadre de ces considérations est fourni par un article récemment écrit par David Gugerli et Daniela Zetti pour le Nouveau Dictionnaire Historique de la Suisse.

Perturbation de la démocratie ? L’importance de la numérisation pour la politique et la société, Ursula Münch

Si la numérisation élargit les possibilités de participation politique, elle porte en même temps atteinte aux garanties de démocratie que nous considérions jusqu’à présent comme importantes. Ce qui semble être un changement dans les simples formes de communication a un impact drastique sur la démocratie. En conséquence de ces changements, la distance entre le peuple et les hommes politiques s’accroît, les apparences des populistes deviennent plus efficaces et la confiance dans la politique diminue. Dans le même temps, les formes numériques de communication, par leurs effets de distorsion, diminuent la possibilité d’équilibrer les intérêts conflictuels et de trouver un dénominateur commun et une solution à l’amiable au conflit. De cette manière, un avantage clé du processus politique démocratique est perdu. En plus d’examiner les divers dangers que la numérisation peut poser à la démocratie, la conférence abordera la question de savoir par où commencer pour que la perturbation numérique ne perturbe pas la démocratie. Dans quelle mesure est-il judicieux de se concentrer sur la lutte contre les “fausses nouvelles”, et quelle contribution peuvent et doivent apporter les différents établissements d’enseignement ?

Moi-même et moi, Dr. Kevin Koidl

Cet exposé couvre les défis actuels et futurs liés aux médias sociaux, l’éthique et la protection de la vie privée dans les médias sociaux ainsi que les défis actuels et futurs, tels que les fausses nouvelles, la cyberintimidation et l’introspection. Plus précisément, l’accent sera mis sur les frictions entre le comportement en ligne perçu et réel. La recherche liée à cette friction est importante pour les utilisateurs afin de comprendre et de contrôler leur empreinte numérique en ligne. La conférence abordera différents types d’empreintes et de profils basés sur les recherches en cours liées à bigfoot.ie une campagne de sensibilisation aux données des médias sociaux et un projet de recherche qui vise à comprendre la friction entre ce que vous pensez faire en ligne et ce que vous faites réellement. L’objectif général de la conférence est de sensibiliser à l’utilisation et à l’exploration des médias sociaux et aux implications plus larges de ces données sur le citoyen numérique.

Les machines comme métaphores de l’être humain, Michael Hampe, ETH, Zurich

L’homme se décrit depuis des centaines d’années en se comparant aux machines. Si l’on suit la métaphologie du philosophe de la culture et de la technologie Hans Blumenberg, un courant métaphorique sous-tend le développement du concept d’homme. Trois des exemples les plus marquants dans ce contexte sont l’horloge, la machine à vapeur et l’ordinateur. La comparaison entre l’homme et ces machines met en évidence différents aspects concernant l’homme : la régulation des mouvements, le contrôle des niveaux d’énergie et le traitement de l’information. Tous ces aspects sont pertinents pour la compréhension de l’homme en tant qu’être vivant et pensant. Cependant, il n’existe aucun critère pour la notation d’un de ces aspects comme caractéristique essentielle de l’homme, surtout pas là où les machines elles-mêmes réalisent ces caractéristiques, peut-être même sous une forme plus parfaite que l’homme, sans que ces machines ne soient pour autant classées dans la classe de l’homme. On peut donc dire avec Alan Turing qu’une machine qui passe le test de Turing pense au sens littéral. Cependant, on ne peut donc pas l’appeler un être humain. Les métaphores mécaniques permettant de connaître les humains en tant qu’êtres génériques sont donc utiles, mais ne sont pas susceptibles de fixer une nature des humains qui serait indépendante de toute perspective scientifique et métaphorique particulière.

Développement de programmes et sécurité : une contradiction ?, Dr. Bernhard Hämmerli

La cybersécurité, la sécurité de l’information et la sécurité informatique sont aujourd’hui sur toutes les lèvres. Chaque jour, nous lisons de nouvelles attaques réussies, parfois même dévastatrices. La situation est préoccupante et les pertes sont énormes : en 2014, Bitcom a calculé une perte due aux cyberincidents de 1,6 % du produit intérieur brut de l’Allemagne. Le seuil de douleur est déjà tendu. Dans nos collèges et universités, nous enseignons avec succès comment développer les programmes, comment les rendre efficaces et comment les formuler avec élégance. L’art du génie logiciel, comment développer systématiquement des programmes étape par étape à partir des exigences, est également enseigné, tout comme la gestion de projets logiciels. Nous sommes bons pour générer des fonctionnalités, mais malheureusement, tant au niveau international qu’en Suisse, la programmation sécurisée et la rédaction de spécifications d’exigences de sécurité ne sont pas incluses dans l’enseignement. La programmation sécurisée a été reconnue comme un sujet par Microsoft en 2001 dans le célèbre courrier de Bill Gates : Il a arrêté toutes les activités de développement pendant 2 mois et a formé toute l’entreprise à la rédaction de programmes sécurisés. En Suisse, des entreprises individuelles ont également lancé des programmes à cet égard, mais pas les universités. Le deuxième domaine, la rédaction des spécifications des exigences de sécurité, est également en difficulté : malheureusement, il n’y a presque pas de sujet. Ces deux omissions ont pour conséquence la vulnérabilité de nombreux systèmes logiciels qui sont utilisés dans l’économie actuelle. La question éthique de savoir si la technologie doit être formée sans inclure simultanément les aspects de sécurité est soulevée et fait l’objet d’un débat controversé.

Mort par Tesla ? Pourquoi nous avons besoin d’une discussion différente sur les algorithmes, Matthias Spielkamp

Lorsque les algorithmes décident, c’est neutre, sans valeur et mieux que lorsque les humains le font. Dites-en un peu. Les algorithmes sont mauvais, incontrôlables et feront un jour de nous leurs esclaves. Dites les autres. Les deux sont des absurdités. Ce qui est vrai, c’est que pour que nous puissions bénéficier des effets positifs des technologies “algorithmiques”, la traçabilité, la responsabilité et les mécanismes de sanction efficaces doivent garantir que les libertés individuelles ne sont pas restreintes et que les décisions prises ne sont pas incompatibles avec nos notions de dignité, de justice et d’autonomie. Comment pouvons-nous y parvenir ?

 

Biographien

David Gugerli, ETH Zürich, Collegium Helveticum, Zürich

David Gugerli, né en 1961, est professeur titulaire d’histoire de la technologie à l’ETH Zurich depuis 2001. Après avoir étudié l’histoire et la littérature, il a obtenu son doctorat en histoire en 1987, a été habilité à l’Université de Zurich en 1995 et a été nommé professeur assistant à l’ETH Zurich en 1997. Il a été invité à la Maison des Sciences de l’Homme à Paris (1988 et 1991), Visiting Fellow à l’Université de Stanford (1992), Investigador visitante au Colegio de México (1989-1993), Fellow au Wissenschaftskolleg zu Berlin (1993/94), Fellow au Centre international de recherche pour les études culturelles de Vienne (1994), et Professeur à l’Universidad Nacional Autónoma de México (1996). 2006 Invité du recteur du Wissenschaftskolleg zu Berlin ; 2008/09 Senior Fellow du Zukunftskolleg à l’Université de Constance. En 2014/15, il était Senior Fellow au laboratoire de recherche sur les cultures numériques de l’université Leuphana de Lunebourg. Il est actuellement membre du Collegium Helveticum et du Centre de Turing de l’ETH.

Prof. Dr. Ursula Münch

Ursula Münch est directrice de l’Académie pour l’éducation politique de Tutzing (Bavière) depuis novembre 2011. Elle a complété sa formation académique en tant que politologue à l’Université Ludwig-Maximilians-Universität de Munich ; des séjours de recherche et d’enseignement ont eu lieu à l’Université de New York et à l’Université du Minnesota. Elle a également reçu son doctorat et son habilitation de la LMU Munich. Ses recherches portent sur le fédéralisme et les partis, les analyses des domaines politiques (politique d’asile et d’immigration, politique de l’éducation, politique familiale, sécurité intérieure, politique des réseaux) et les questions d’intégration sociale. Münch est, entre autres, membre du Conseil scientifique allemand, du Conseil universitaire de l’Université Ludwig-Maximilian de Munich, ainsi que du Conseil consultatif universitaire de l’Université des sciences politiques (TUM), du Centre de recherche RISK (Risque, infrastructure, sécurité et conflit) de l’Université des forces armées fédérales, et du Centre de recherche Internet de Munich, situé à l’Académie bavaroise des sciences et des humanités. Ursula Münch est mariée, a deux enfants en âge scolaire et vit à Munich.

 

Dr. Kevin Koidl, Computer Science Department of Trinity College 

Kevin Koidl est chercheur au département d’informatique du Trinity College et au centre de recherche ADAPT. Ses domaines de recherche sont la confidentialité des données, la personnalisation, l’intelligence des médias sociaux et l’intelligence artificielle. Il est le fondateur de Wripl Technologies, spin-out de TCD, une société de contenu cognitif et d’analyse intelligente, et co-fondateur de Kaffeehouse,com, une plateforme mondiale de traduction et de publication de littérature abrégée, ainsi que l’initiateur de la campagne BigFoot.ie, une campagne de sensibilisation à la protection des données en ligne.

Michael Hamp

Michael Hampe, professeur titulaire de philosophie à l’ETH Zurich. A étudié la philosophie, la biologie et la littérature à Heidelberg et à Cambridge. Domaines de recherche : Pragmatisme, histoire de la philosophie au début de la période moderne (en particulier Spinoza et Hobbes), philosophie de la technologie. Dernière publication : Les doctrines de la philosophie. Eine Kritik, Berlin 2014

Matthias Spielkamp

Matthias Spielkamp est co-fondateur d’AlgorithmWatch et membre fondateur et éditeur de iRights.info (Grimme Online Award). Il a occupé des postes d’enseignant dans différentes universités allemandes et a été témoin expert pour le Bundestag sur l’intelligence artificielle et la robotique, le contrôle de l’intelligence, le journalisme en ligne et les droits d’auteur. Il est actuellement membre Bucerius de la Fondation ZEIT ; en 2015/16, il était membre de la Fondation Mercator et chercheur invité à l’Alexander von Humboldt Institute for Internet and Society (HIIG). Spielkamp est membre du conseil d’administration de Reporters sans frontières Allemagne et du conseil consultatif du réseau des dénonciateurs. Au sein du comité directeur du Forum allemand sur la gouvernance de l’Internet (IGF-D), il est coprésident des groupes “Science” et “Société civile”. Livres : Politique numérique. Eine Einführung (ed. 2017) Guidebook Internet Governance (ed. 2016), Groundbreaking Journalism (ed. 2014) ; Arbeit 2.0, 2009 (avec V. Djordjevic et al.) ; Urheberrecht im Alltag, 2008 (avec V. Djordjevic et al.) ; Schreiben fürs Web, 2003 (avec M. Wieland). MA Philosophie (FU Berlin), MA Journalisme (Univ. of Colorado, Boulder).

Prof. Dr. Bernhard Hämmerli

Le professeur Bernhard Hämmerli est un professeur et un gestionnaire actif au niveau international qui possède de nombreuses années d’expérience en matière de direction et de développement dans les écoles supérieures et les universités, dans les entreprises et les associations. Il est un expert reconnu en matière de réseaux TIC, de sécurité, d’infrastructures critiques et de questions énergétiques. Il enseigne à l’Université norvégienne des sciences et des technologies NTNU et à la Hochschule Informatik de Lucerne dans les domaines des réseaux et de la sécurité. Il est directeur de l’Académie CISCO Suisse centrale et du Sommet suisse des CISO.  Il est président du comité directeur de la série de conférences CRITIS, la conférence scientifique dans le domaine des infrastructures critiques. En 2013-2017, il a été président de la plateforme thématique sur la cybersécurité de l’Académie suisse des sciences techniques et a reçu le prix de l’Outstanding Achievement Award pour ses services en 2017. Il dirige également Acris GmbH, une société spécialisée dans la sécurité et les infrastructures critiques. Il est également rédacteur en chef de la European Critical Infrastructure Newsletter (ECN) et co-rédacteur de la revue de protection des données et de sécurité de l’information DIGMA.

Priska Altorfer, Moderation

Priska Altorfer travaille depuis plus de 10 ans dans le domaine de la sécurité de l’information, de l’optimisation des processus et du marketing commercial international. Ses principales activités comprennent l’analyse, le développement et la réalisation de la gestion des risques opérationnels et de la gouvernance informatique dans les systèmes d’information ainsi que la mise en œuvre de solutions CIAM (Compliant Identity Access Management). Grâce à ses nombreux engagements internationaux, elle a pu se familiariser avec les cultures et les mentalités de travail de nombreux pays. Actuellement, Priska Altorfer est associée directrice de wikima4, une société permettant la mise en œuvre et le fonctionnement d’une gouvernance efficace, la gestion des risques et de la conformité (“GRC”), et est partenaire associée de imp-consulting, l’aéroport de Zürich. Elle est titulaire d’un diplôme de l’Eidg. Verkaufsleiterin, est un consultant certifié AcceleratedSAP et est un conférencier certifié ITIL Foundation à la HWV Lucerne (CH) pour les systèmes de planification des ressources d’entreprise et la conformité (CAS-ERP).