dimanche 31 octobre 2010

Ordres et désordres - La quête du sens de la vie, Harmonie, contestations, révoltes, violence, Tocs - Sophie de Mijolla-Mellor - 84mn - UTLS - 2003




Ordres et Désordres - Sophie de Mijolla-Mellor - 84mn - UTLS - 2003
Auteur : Sophie de Mijolla-Mellor - Moyens techniques : Studio vidéo, université Paris 7 - Denis Diderot - Image et son : Jean-Paul Flourat - Stagiaire : Gaëlle Tiblier - Réalisation et montage : Samia Serri © Université Paris 7 - Denis Diderot - Mars 2003

Les formes nouvelles du conflit et de la destructivité qui marquent quotidiennement l'actualité incitent à une réflexion élargie sur la nature, les relations voire les paradoxes de l'opposition entre l'ordre et le désordre dans laquelle la psychanalyse apporte un éclairage original. L'ordre répond à un besoin d'emprise sur le monde et constitue une partie inhérente à la quête du sens de la vie propre à chacun.

Pourtant, loin de se développer comme une harmonie, il génère contestations, révoltes et nécessite d'être "maintenu", se confondant à son tour avec une violence "légitime". Vers quels questionnements sur la relation à l'autre, dans la famille, dans la cité, entre les états, cette opposition entre "ordre et désordre" nous engage t'elle ?

Découpage et Plan du documentaire :
- 04:35 - Introduction
- 03:22 - Ordre et désordre
- 05:35 - L'ordre à petites doses
- 05:29 - Dirt is matter in the wrong place
- 05:47 - Range ta chambre !
- 07:20 - La socialisation : un combat de titan
- 07:07 - Un dur cristal de rancune
- 06:56 - L'ordre groupal de la foule galvanisée
- 04:37 - A vos ordres
- 06:37 - La perversion obsessionnelle de l'ordre
- 03:12 - Le meilleur des mondes ou l'univers totalitaire
- 03:11 - L'ordre règne à Varsovie
- 04:35 - Terreur et terrorisme
- 04:35 - Ni Dieu ni maître
- 03:31 - Du doute à l'ordre des raisons
- 02:11 - Ici, tout n'est qu'ordre et beauté, luxe, calme et volupté

 Sophie de Mijolla-Mellor : Psychanalyste, professeur en psychanalyse

Biographie de Sophie de Mijolla-Mellor : Psychanalyste, professeur de psychopathologie et psychanalyse, université Paris VII-Denis Diderot.


Source Canal-U TV - UTLS : Ordres et désordres - Sophie de Mijolla-Mellor - Psychologie, psychanalyse - Canal-U

OnlyZenTV : Education - Innovation - Création - We are sure ! Together we can Change the World ...
Conférences, Documentaires, Débats, Tables rondes, Colloques, Interviews, Informations, Reportages, Cours ...
Développement Durable, Ethique, Environnement, Innovation, Philosophie, Psychologie, Sociologie, Histoire, Sciences, Arts et Création ... Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV

samedi 30 octobre 2010

L'impact des neurosciences sur les thérapies - Yves AGID - 85mn - Université de Tous les Savoirs - 2004



L'impact des neurosciences sur les thérapies - Yves AGID - 85mn - UTLS - 2004
Production : Université de Tous les Savoirs - Durée : 85mn 45s - Date : 23/01/2004

Yves AGID : Neurologue - Professeur des Universités - Praticien Hospitalier - Chef de service de neurologie, Hôpital Pitié-Salpêtrière

Les neurosciences sont à l'origine de beaucoup d'espoirs et de fantasmes. Grâce à quelques exemples on peut démythifier ce qui est présenté dans les journaux, ce que tout le monde pense, les attentes des patients... Une vision plus réaliste sera présentée grâce à une connaissance du système nerveux, des ses troubles, de quelques modes exploratoires ainsi que des possibilités de traitements.

Minutage et Plan de la conférence "L'impact des neurosciences sur les thérapies" par Yves AGID :
- 00:49 - Présentation
- 01:30 - Introduction
- 10:33 - Quelques maladies neurologiques
- 12:32 - Le cerveau et le système nerveux
- 14:06 - Exemples de troubles
- 08:15 - La mesures des émotions
- 07:19 - Traitement des maladies du système nerveux
- 18:31 - Conclusion
- 04:00 - Questions, partie 1
- 08:10 - Questions, partie 2

Transcription de la 526e conférence de l'Université de tous les savoirs donnée le 23 janvier 2004
Yves Agid « L'impact des neurosciences sur les thérapies »

L'Europe comporte 400 millions d'individus, dont 17 % ont plus de 65 ans, et représente la population la plus touchée par les maladies neurodégénératives, telles que les maladies de Parkinson ou d'Alzheimer. Il existe beaucoup d'autres pathologies neurologiques, telles que les accidents vasculaires cérébraux (AVC), l'épilepsie ou la sclérose en plaque. Ces maladies posent des problèmes de santé publique, mais aussi des problèmes socio-économiques. La maladie d'Alzheimer, qui concerne cinq millions de personnes en Europe, entraîne une dépendance totale trois à cinq ans après le début de la maladie et un coût d'environ 80 milliards d'euros par an. Au total, ces maladies neurologiques sont fréquentes, et coûtent plus de 300 milliards d'euros par an à la communauté européenne, ce qui peut paraître énorme, mais qui représente cependant moins que le coût des problèmes psychiatriques. Des dizaines de millions de personnes endurent des dépressions, des angoisses, 4 millions souffrent de psychoses (schizophrénie, délires,...). Les traumatisés de la route représentent quant à eux 1,7 million de nouveaux patients chaque année en Europe. Que peut faire la médecine pour soulager tous ces patients sur le plan neurologique ?

La première chose que le médecin apporte à son patient tient à la relation particulière qu'ils entretiennent ensemble. Tout bon médecin est un psychothérapeute qui s'ignore. Si la psychiatrie, la psychologie ou la neuropsychologie, sont des sciences très importantes dans la vie courante, elles le sont encore plus en médecine. Il y a d'ailleurs une analogie entre la psychothérapie et l'effet placebo (du latin je plairai). Cet effet existe dans tout médicament. Le placebo est une substance inerte administrée pour son effet psychologique. Il n'a, de manière remarquable, d'effet que lorsque le patient et le médecin ont une confiance parfaite dans son action. On dit que 40 % des médicaments prescrits dans en France sont d'ailleurs des placebo. Une expérience très classique illustre cet effet. Des étudiants en médecine reçoivent un comprimé parmi deux, l'un présenté comme sédatif et l'autre comme stimulant, mais ne contenant en réalité qu'une substance inactive. Plus des deux tiers des étudiants ayant reçu le « sédatif » ont déclaré avoir sommeil, et ceux ayant pris deux comprimés avaient plus envie de dormir que ceux qui n'en avaient pris qu'un. Un tiers de l'ensemble du groupe a signalé des effets secondaires, tels des maux de têtes, un picotement des extrémités, ou une démarche titubante. Trois étudiants seulement sur 56 n'ont ressenti aucun effet ! Cela prouve que l'acte médical, le fait de donner un médicament, n'a de sens que dans un contexte médecin/malade, ce que les médecins, parfois débordés, mais aussi les patients, ont tendance à oublier. Une relation médecin/patient de qualité est une chose absolument fondamentale.

Il y a encore une trentaine d'années, le cerveau était vu comme une boite noire, dans laquelle personne ne pouvait ni ne voulait regarder. Nous verrons que le cerveau est en effet une structure extraordinairement complexe. On commence cependant aujourd'hui à comprendre ce qui se passe dans un cerveau, normal ou anormal. Cette connaissance pourrait nous permettre d'agir de manière sélective sur les dysfonctionnements du cerveau malade.

Le cerveau humain pèse en moyenne 1350 g (celui de Lord Byron pesait 2,3 kg, et celui d'Anatole France, supposément le plus grand QI ayant jamais existé avec Voltaire, 900 g). Le cerveau est formé de deux hémisphères, chacun divisé par convention en quatre lobes, qui tirent leur nom des os du crâne qu'ils recouvrent : les lobes frontal, pariétal, temporal et occipital. Le cerveau humain est constitué de 100 milliards de cellules nerveuses. Chaque neurone présente des branches (des axones et des dendrites) qui ont chacune à leur extrémité des petites spicules sur laquelle sont établis en moyenne 10 000 contacts avec les cellules voisines. Le cerveau est donc un véritable réticulum. Chaque cellule nerveuse émet environ 1000 signaux par seconde. Par conséquent 1018 signaux sont véhiculés dans le cerveau chaque seconde, soit un milliard de milliard de signaux ! Vu de l'intérieur, le cerveau se présente comme une couche de cellules périphériques (le cortex cérébral) d'où des faisceaux de cellules nerveuses envoient des prolongements (projettent) vers les structures profondes du cerveau, que l'on appelle les noyaux gris centraux, ou les ganglions de la base. Différentes zones fonctionnelles ont été identifiées dans le cerveau : celle qui permet d'accomplir un acte moteur, la partie associative qui sous tend la fonction intellectuelle et le cortex dit limbique, qui contrôle les émotions. Chaque zone projette de manière spécifique vers la zone correspondante dans les structures profondes. Ces régions ne sont cependant pas cloisonnées : comment expliquer une fonction aussi extraordinaire que l'émotion déclenchée en voyant un tableau de Botticelli ?
La suite du texte de la présentation - Document Format Pdf : L'impact des neurosciences sur les thérapies - Yves AGID

Source Canal-U TV - UTLS : L'impact des neurosciences sur les thérapies - UTLS - 2004

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

vendredi 29 octobre 2010

Pythagore, l'histoire d'un théorème - L'homme, l'époque, les enjeux de la démonstration - Sciences & Innovation - 16mn - CED - 2010


Présentation Disponible en cliquant sur le lien suivant : "Pythagore, l'histoire d'un théorème"

Pythagore, l'histoire d'un théorème - L'homme, l'époque, les enjeux de la démonstration - 16mn - CED - 2010
Thème : Sciences & Innovation - Producteur : CED - Canal éducatif

L'énoncé du théorème de Pythagore est bien connu, mais qui est l'homme Pythagore, quand a-t-il vécu et qu'est-ce qui l'a motivé à démontrer une relation qui était pourtant déjà connue des Egyptiens ?
Cette présentation didactique vous invite à découvrir deux méthodes de démonstration, ainsi qu'à découvrir de façon plus détaillée pourquoi le concept de démonstration a marqué une rupture dans l'histoire de la pensée, non seulement en fondant les mathématiques scientifiques, mais aussi en permettant l'ouverture d'une première "crise" avec la découverte des nombres irrationnels.

Source CED - Canal Educatif : Pythagore, l'histoire d'un théorème L'homme, l'époque, les enjeux de la démonstration

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Delacroix : La Liberté guidant le peuple - Icône malgré elle ? - Histoire des Arts - Eugène Delacroix (1798-1863) - 28mn - CED Canal Educatif - 2010



Delacroix : La Liberté guidant le peuple - Icône malgré elle ? - Histoire des Arts - Eugène Delacroix (1798-1863) - 28mn - CED - 2010

Le CED est un projet collaboratif visant à constituer le premier patrimoine gratuit de vidéos éducatives pour les jeunes et leurs parents à domicile. Enseignants, étudiant ou expert vous pouvez y participer et jouer les passeurs de culture.

La Liberté guidant le peuple : un tableau devenu icône de la république triomphante. Pourtant telle n'a jamais été l'intention de Delacroix, dandy-conservateur effrayé par les émeutes populaires. La fortune de l'oeuvre reposerait-elle sur un immense contresens ?

Plan du documentaire "Delacroix : La Liberté guidant le peuple - Icône malgré elle ?" :

Accroche : un contresens ?

I. D'où vient l'erreur ?
a. Le spectateur coupable ?
b. Un tableau différent: une déesse dans Paris
c. La démocratie vulgaire ?

II. Intentions suspectes
a. Delacroix opportuniste ?
b. Delacroix rebelle ?
c. Delacroix indépendant !

III. Mission impossible ?
a. Défi n°1 : le peuple acteur de son histoire
b. Delacroix suiveur de Géricault ?
c. Défi n°2 : peindre pour un public élargi

Source, Compléments, Liens : CED - Canal Educatif : Delacroix : La Liberté guidant le peuple - Icône malgré elle ?

Le Canal Educatif à la Demande - Une finalité d'intérêt général : démocratiser l'accès à la culture des sciences, de l'économie et des arts pour redonner du sens aux savoirs

Le CED est une initiative philanthropique qui a pour objet de "compléter l'Ecole à domicile", en donnant la possibilité à tous les élèves et toutes les familles d'accéder gratuitement et "à la demande" au "capital culturel" nécessaire pour relier les savoirs scolaires à un sentiment d'utilité ou de grandeur. Il se concentre sur trois besoins prioritaires : le développement de la culture des sciences, des arts et de l'économie.

Cette initiative repose sur une expérience concrète de l'enseignement, qui a permis de constater qu'une majorité d'élèves ne développe pas de goût authentique pour le travail à l'Ecole faute de pouvoir accéder à des connaissances culturelles de fond, d'une façon régulière, vivante et rigoureuse : connaissances de voies de réussite ambitieuses dans l'économie et la vie professionnelle, connaissance de l'origine et de l'utilité des découvertes scientifiques, connaissance du plaisir des grandes oeuvres d'art.

Le CED se distingue donc à la fois par une focalisation sur un public de jeunes et d'adultes, et sur la recherche de productions ambitieuses sur le fond, "à la fois vivantes et analytiques". Le CED ne croit pas qu'il existerait des recettes formelles et générales pour rendre un sujet intéressant.

Les enjeux sont triples : l'égalité des chances, la préparation aux enjeux de la société de la connaissance, la revalorisation des personnes porteuses de savoirs...
Le Canal Educatif à la Demande (CED) : Offrir des vidéos éducatives de qualité gratuitement sur le net

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

La psychiatrie et la pédopsychiatrie - Bernard GOLSE - 84mn - Canal-U TV - 2004



Conférence "La psychiatrie et la pédopsychiatrie" - Bernard GOLSE - Canal-U TV - 2004
Producteur : Université de Tous Les Savoirs - Durée : 84mn 46s - Date : 15/01/2004
Disciplines : Psychiatrie, Pédiatrie

Intervenant : Bernard GOLSE - Pédopsychiatre et psychanalyste, Chef de service de Pédopsychiatrie de l'hôpital Necker, Professeur de Psychiatrie de l'enfant et de l'adolescent à l'Université René Descartes (Paris V). Il est spécialiste du développement précoce et des niveaux archaïques du fonctionnement psychique, il s'intéresse tout particulièrement à la mise en place de la Psyché chez l'enfant et à l'instauration des processus de sémiotisation et de symbolisation.

Les sciences humaines n'ont pas à être opposées aux sciences fondamentales. La psychiatrie et la pédopsychiatrie appartiennent aux sciences humaines et à ce titre , elles ont une prétention légitime à la scientificité, mais elles sont plus proches des sciences narratives que des sciences expérimentales.

Paul Ricoeur déclarait : « l'être humain est un être de narration , son identité est une identité narrative ». L'histoire est au coeur du développement de l'enfant, de l'adolescent, de ses troubles. On dit parfois, l'histoire bégaie mais elle ne se répète pas, et c'est le cas de la rencontre clinique qui est un processus singulier et unique.

En ce début de XXIème siècle nous sommes à la croisée des chemins. Le XXème siècle aura été celui de la découverte du code génétique et on dit que le XXIème siècle sera celui de la compréhension de la pensée, de la cognition, du désir. Il est intéressant, après un aperçu des données ressentes de la pédopsychiatrie, de réfléchir aux enjeux conceptuels de ces nouvelles données pour finir sur la place de la pédopsychiatrie dans notre société.

Minutage et Plan de la conférence "La psychiatrie et la pédopsychiatrie" par Bernard GOLSE :
- 02:03 - Présentation
- 04:50 - Introduction
- 10:30 - Les acquis de la pédopsychiatrie
- 14:18 - Repère conceptuel sur le bébé
- 08:57 - La psychiatrie péri-natale
- 06:49 - L'enfant
- 07:19 - L'adolescent
- 06:06 - Les enjeux conceptuels des nouvelles données
- 06:46 - Conclusion
- 17:08 - Questions

Texte de la 518e conférence de l'Université de tous les savoirs donnée le 15 janvier 2004
Bernard Golse « La pédopsychiatrie en 2004. Clinique de l'instant, clinique de l'histoire. Néo-constructivisme, néo-structuralisme et phénoménologie »

Permettez-moi d'abord de dire que je ne crois pas du tout que la psychiatrie soit plus mystérieuse, par essence, que les sciences dites fondamentales.

Chacun sait et sent fort bien de quoi l'on parle quand on parle de chagrin, de tristesse, d'imaginaire ou de culpabilité, alors que je ne suis pas sûr que tout le monde se représente avec précision ce qu'est un chromosome, un gène, un allèle, ou une délétion d'un télomère ou d'un satellite ... !

Alors pourquoi cette prime aux neurosciences dans le grand public ?

La question vaut d'être posée, me semble-t-il, et tout est en fait affaire de communication.

Les sciences humaines n'ont pas à être opposées aux sciences fondamentales, dites pures et dures, comme si les premières étaient, par définition, impures et molles.

La psychiatrie et la pédopsychiatrie appartiennent aux sciences humaines et, à ce titre, elles ont une prétention légitime à la scientificité, mais elles sont probablement plus proches des sciences narratives que des sciences expérimentales, plus proches des sciences narratives à qui l'on refuse moins, pourtant, le statut de sciences qu'à la psychiatrie, à la psychopathologie ou à la psychanalyse.

« L'être humain est un être de narration, son identité est une identité narrative » (P. Ricoeur)

L'histoire bégaie parfois, mais elle ne se répète pas, et tel est aussi le cas, fondamentalement, de la rencontre clinique qui est, à l'évidence, éminemment singulière et unique.

J'ajoute que les sciences expérimentales qu'on dit parfois fondamentales ne le sont pas plus que les sciences humaines et, en tout cas, qu'elles ne sont en rien plus fondatrices.

Nous sommes un peu, aujourd'hui, à la croisée des chemins : le vingtième siècle aura été celui de la découverte du code génétique, le vingt et unième devra être celui de la compréhension de la cognition, mais aussi et surtout des mécanismes du désir.

Saura-t-il relever ce défi ?
La suite du texte de la conférence - Format Pdf : La psychiatrie et la pédopsychiatrie - Bernard GOLSE

Source, Biographie, Documents Canal-U TV - UTLS : La psychiatrie et la pédopsychiatrie - Bernard GOLSE - 2004

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Etre et ne pas être un animal - Les gènes "architectes", la plasticité du système nerveux - Alain PROCHIANTZ - 73mn - Canal-U - 2002




Conférence "Etre et ne pas être un animal" par Alain PROCHIANTZ - Canal-U TV - 2002
Producteur : Université de Tous Les Savoirs - Durée : 73mn - Date : 21/07/2002
Disciplines : Evolution, Sociologie et philosophie de la science, Sciences du vivant

Il n'y a que des individus dans la nature. Mais qu'est-ce qu'un individu ? Le sens de ce terme est-il le même pour tous : bactéries, plantes, oiseaux, souris, êtres humains ? La réponse, selon le conférencier, réside dans l'étude du développement, dans les gènes architectes qui tracent le plan du corps et nous éclairent sur l'évolution des espèces. Elle se trouve aussi dans l'histoire, toujours singulière, de tout individu. Mettant en perspective les données les plus récentes de sa discipline, il suggère que, par la grâce de quelques mutations et l'aventure évolutive de son cortex, l'Homme est comme sorti de la nature et il propose une distinction radicale entre nous et les autres espèces.

Découpage et Plan de la conférence "Etre et ne pas être un animal" par Alain PROCHIANTZ :

- 01:32 - Présentation
- 07:36 - Introduction
- 12:25 - Les gènes "architectes"
- 15:05 - Comparaison vertébrés-arthropodes
- 10:00 - La plasticité du système nerveux
- 04:45 - Les contraintes de temps
- 01:51 - Conclusion
- 10:53 - Questions, partie 1
- 08:57 - Question, partie 2

 Alain PROCHIANTZ : Chercheur en neurobiologie et professeur au Collège de France

Intervenant : Alain PROCHIANTZ - Directeur de recherche CNRS, Directeur de l'UMR 8542 du CNRS, à l'Ecole Normale Supérieure de la rue d'Ulm. Ancien élève de l'Ecole Normale Supérieure de la rue d'Ulm, Doctorat d'Etat en Biochimie. Spécialités : Neurobiologie du développement.

Texte de la 442e conférence de l’Université de tous les savoirs donnée le 21 juillet 2002
Être ou ne pas être un animal - Par Alain Prochiantz

Le propos de cette conférence sera d’expliquer comment le système nerveux se construit, comment il a pu évoluer et comment cette évolution a rencontré un point de rupture qui fait que tout en étant, nous autres êtres humains, des animaux, nous avons pour ainsi dire échappé à l’ordre de la nature.

Pour passer de l’oeuf, une cellule, à l’individu constitué de plusieurs milliards de cellules, une grande quantité d’événements est nécessaire : prolifération, migration, mort, différenciation, regroupement en tissus et organogenèse. Les tissus se forment à partir de trois feuillets embryonnaires mis en place au cours de la gastrulation, étape du développement qui suit la formation de la blastula, boule creuse générée à partir de la prolifération des premières cellules embryonnaires. Schématiquement, le mésoderme donne les muscles et les os ; l’ectoderme, le système nerveux et la peau ; l’endoderme, le tube digestif, les poumons et les glandes annexes du tube digestif comme le foie, le pancréas, la thyroïde. Le système nerveux se développe à partir de la partie dorsale de la blastula. Au cours de la gastrulation, cet ectoderme dorsal est induit à devenir de l’ectoderme neural, c’est à-dire à former du système nerveux. L’embryon perd sa sphéricité et commence à s’allonger selon l’axe antéropostérieur. Une plaque neurale s’individualise progressivement dont les bords vont former les bourrelets neuraux. Ces bords se rapprochent alors progressivement pour venir se souder dorsalement au-dessus de la ligne médiane de l’embryon et former le tube neural.

Notre histoire commence ainsi avec une invention majeure de l’évolution : le tube, ou plutôt la plaque neurale. La plaque neurale est en effet spécifique des vertébrés. Les arthropodes, dont nous nous sommes séparés il y a six cents millions d’années, ont des ganglions et non un tube neural. L'invention de la plaque présente un avantage considérable pour ce qui est de l'accroissement des fonctions neurales supérieures. Contrairement à une boule, un ganglion est une boule, la surface d'une feuille est peu limitée par les contraintes d'espace. La feuille peut en effet être plissées et casée dans la cavité de la boîte crânienne, qui est également, pour une part importante et grâce à l'invention parallèle de la crête neurale, un dérivé de l’ectoderme. L’extension de la surface du système nerveux n’est plus limitée par la contrainte mécanique et le cortex d'Homo sapiens possède 2 m2 de surface et 4 mm d’épaisseur.

Dans le développement du système nerveux, comme dans le développement en général, l’information positionnelle joue un rôle important. La plaque des vertébrés peut être vue comme une feuille sur laquelle on peut tracer un quadrillage. Une fois qu’elle est refermée en tube, la plaque reste quadrillée. Le quadrillage du plan permet de placer des coordonnées. Le système nerveux est très hétérogène et les fonctions qui sont engagées par les parties les plus frontales (comme le cortex frontal) ne sont évidemment pas les mêmes que celles engagées par les régions les plus caudales (comme la moelle épinière). Le sort de chaque zone, c’est à dire l’engagement dans des voies de différenciation distinctes le long des axes antéropostérieur et dorso-ventral est lié à la position des cellules dans ce système de coordonnées.
Par exemple, les racines motrices qui vont innerver les muscles sont dans les régions ventrales chez les vertébrés alors que les fibres sensorielles sont dans les régions dorsales. La différenciation du système nerveux suit donc un quadrillage antéro-postérieur et dorso-ventral qui est dérivé du quadrillage de la plaque neurale...
La suite du texte de la conférence - Format Pdf : Etre et ne pas être un animal - Alain PROCHIANTZ - 2002

Source Canal-U TV - UTLS : Etre et ne pas être un animal - Alain PROCHIANTZ - Canal-U TV - 2002

OnlyZenTV : Education - Innovation - Création - We are sure ! Together we can Change the World ...
Conférences, Documentaires, Débats, Tables rondes, Colloques, Interviews, Informations, Reportages, Cours ...
Développement Durable, Ethique, Environnement, Innovation, Philosophie, Psychologie, Sociologie, Histoire, Sciences, Arts et Création ... Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV

Esprit et identité - "Connais-toi toi même" - Affirmation de sa propre spécificité, La mémoire, L'action mentale - Joëlle PROUST - 58mn - UTLS - 2001



Conférence - "Esprit et identité" - Joëlle PROUST - 58mn - UTLS - 2001
Disciplines : Psychologie, Philosophie - Durée : 58mn 27s - Date : 08/11/2001
Producteur : Université de Tous Les savoirs
Intervenant : Joëlle PROUST, Philosophe, Directeur de recherche au C.N.R.S , chercheur au CREA (Ecole Polytechnique, Paris). Ses travaux portent sur la subjectivité et l'identité, les questions de l'intentionnalité et de l'action. Elle est spécialiste de théorie de la cognition et notamment de l'approche cognitiviste des troubles mentaux.

Minutage et Plan de la conférence "Esprit et identité" par Joëlle PROUST :
- 02:17 - Présentation
- 01:11 - Introduction
- 06:05 - "Connais-toi toi même"
- 06:05 - Quelles propriétés attribuer à ma personne ?
- 06:05 - Le rôle de la mémoire
- 06:05 - L'action mentale
- 06:05 - Les cas pathologiques
- 03:03 - Conclusion
- 21:31 - Questions

Qui, "je" ? Si l'injonction socratique connais-toi toi-même ! implique une forme de recherche de sa propre spécificité qui n'a rien d'immédiat ou de facile, en revanche nul ne songe à s'inquiéter de ce à quoi renvoie le "toi-même". Le toi-même renvoie à moi, l'interlocuteur de Socrate; pour savoir cela, il suffit apparemment d'être conscient de jouir d'un corps et d'un esprit de manière exclusive; de savoir que chaque histoire est unique; que tout le monde appelle chacun par son nom; que ce que l'on fait retentit sur soi au premier chef. Cette conviction que le moi s'offre sans difficulté dans l'expérience courante est renforcée par la manière non problématique dont on utilise couramment le mot "je", pronom personnel qui renvoie à l'auteur de l'énoncé, c'est-à-dire un interlocuteur identifiable dans le contexte de la communication. Mais la référence du mot "je" perd de sa clarté quand on remarque que, lorsqu'on l'utilise le mot pour exprimer sa pensée ou son expérience intime (comme dans "j'ai mal aux dents"), il paraît impossible de se tromper sur la personne que l'on est.

Wittgenstein conclut de cette immunité contre l'erreur d'identification que les auto-attributions subjectives sont de fausses affirmations sur soi (une affirmation doit pouvoir être fausse). On se proposera de montrer que l'immunité contre l'erreur d'identification n'a rien d'universel, comme en attestent certaines formes de délires. Dès lors la question de la référence à soi devient cruciale, tout comme celle de l'identité de la personne. A quelles conditions une personne peut-elle se constituer et se reconnaître comme la même ? Telles seront les questions dont on débattra en axant la réflexion sur les formes variées de l'agir.

Source Canal-U TV : Conférence - Esprit et identité - Joëlle PROUST

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Les universaux de la pensée - Evolution génétique, universalité, la conscience, la pensée, le langage - Jean-Pierre CHANGEUX - 102mn - UTLS - 2002



Les universaux de la pensée - Jean-Pierre CHANGEUX - 102mn - UTLS - 2002
Disciplines : Philosophie, Neurosciences, Sciences du vivant - Durée : 102mn - Date : 24/07/2002
Producteur : UTLS - Université de Tous Les Savoirs

Jean-Pierre CHANGEUX : Anciennement élève de l'ENS, agrégé de Sciences naturelles, et Docteur ès-Sciences.
Il est professeur au Collège de France (chaire des communications cellulaires), à l'Institut Pasteur, et à la direction du Laboratoire de Neurobiologie moléculaire.

La pensée est liée au cerveau, une entité matérielle qui possède une organisation complexe. Les universaux de pensée se développent à partir de cette organisation. Elle se construit au court de l'évolution, ou plutôt d'une synthèse d'évolutions multiples. Elle résulte de l'évolution des espèces, de l'évolution au court du développement embryonnaire, de la formation des connexions entres cellules nerveuses avant et après la naissance. Des évolutions multiples, emboîtées qui correspondent aux niveaux d'organisation de la matière, de la molécule à la cellule nerveuse, de la cellule nerveuse au circuit, du circuit aux assemblées de neurones.

Au court de l'enfance, il y a des changements de la connectivité en fonction de la culture, de l'environnement. Durant ces évolutions emboîtées, des universaux vont être sélectionnés, ils vont dans un premier cas assurer la survie de l'individu, mais aussi des groupes sociaux. Des universaux qui se retrouvent au niveau du génome, de l'anatomie et de l'organisation du cerveau, ses dispositions fonctionnelles, physiologique et psychologique. Il y a une universalité du génome humain mais aussi une variabilité génétique et épigénétique qui permet l'évolution tout en préservant l'intercompréhension entre les individus.

Minutage et Plan de la conférence "Les universaux de la pensée" :
- 01:21 - Présentation
- 09:35 - Introduction
- 19:02 - Universalité génétique et anatomique du cerveau humain
- 09:06 - Le théorème de la variabilité
- 09:18 - Les neurones de récompense
- 09:25 - La conscience, un universel humain
- 12:58 - Théorie du langage
- 04:33 - Conclusion
- 14:57 - Questions, partie 1
- 11:42 - Questions, partie 2

Résumé de la 443e conférence de l'Université de tous les savoirs donnée le 24 juillet 2002
Jean-Pierre Changeux : "Les universaux de la pensée"

Les "universaux" sont ces termes qui s'étendent à l'univers tout entier, à l'ensemble des êtres ou des idées et qui se distinguent des particuliers. Le philosophe médiéval Albert le Grand distinguait trois manières de considérer les universaux : ante rem en tant que cause universelle, possédant d'avance la totalité de ses effets causés, in re en tant que nature commune reçue dans les particuliers et post rem en tant qu'intention formelle et concept simple de l'esprit séparés du particulier par abstraction.

Aujourd'hui, si l'on reprend les définitions d'Albert le Grand, on peut dire que, ante rem, les universaux vont concerner la réalité physique du monde extérieur, la matière et ses régularités ; in re, les objets, les êtres issus de l'évolution de l'univers, de l'évolution des espèces, en particulier, le cerveau de l'homme qui présente une organisation, ou conformatio, commune aux membres de l'espèce homo sapiens ; et post rem, les représentations communes, ou concepts, qui se forment dans le cerveau de l'homme et s'organisent en pensée.

Cette conférence avance l'idée que le cerveau de l'homme est matériel et que les universaux de pensée se développent à partir de l'organisation de notre cerveau, laquelle se construit au cours de l'évolution.

Celle-ci est la synthèse d'évolutions multiples : celle des espèces au niveau des génomes, celle du cerveau au cours du développement embryonnaire, celle enfin des connexions entre cellules nerveuses après la naissance, puisque le bébé humain naît avec un contingent de connexions qui est la moitié de celui de l'adulte. On a affaire à des évolutions multiples, emboîtées, qui correspondent à ces niveaux d'organisation de la matière, de la molécule à la cellule nerveuse, de la cellule nerveuse aux circuits, des circuits aux assemblées de neurones et aux assemblées d'assemblées de cellules nerveuses.

Au cours de ces évolutions emboîtées, des universaux sont sélectionnés, qui, d'un point de vue darwinien, assurent la survie de l'individu, celle des groupes sociaux et, finalement, celle de l'humanité.

Il faut cependant prendre en compte un problème central, celui de la variabilité locale. Car s'il y a une universalité du génome humain, il y a aussi une variabilité de ce génome - une variabilité génétique- . Il y a aussi une variabilité épigénétique et fonctionnelle qui conduit à la dynamique de la pensée. Cette variabilité des universaux permet l'évolution et évite que nous ayons à concevoir l'homme, la nature, l'univers, dans un cadre fixiste.

L'universalité génétique et anatomique du cerveau de l'homme

Notre génome est composé de trente à quarante mille gènes qui déterminent toutes les protéines - et parmi elles celle du cerveau : 60 % de ces gènes sont exprimés dans le cerveau.

Ces gènes déterminent des molécules qui entrent dans la composition des contacts entre cellules nerveuses qui permettent aux neurones de se connecter entre eux et de constituer des réseaux d'une extrême complexité dans lesquels circulent des signaux électriques ou des signaux chimiques. La complexité de ces réseaux évolue du singe à l'homme. On assiste en particulier à un accroissement considérable, chez l'homme, de la partie qui se trouve en avant du cerveau, le cortex préfrontal, partie critique du développement à la fois de la conscience et de la pensée.

Si l'on compare le nombre de gènes dans le génome de l'homme et dans celui de la souris, on trouve un nombre de gènes très voisin. S'il n'y a pratiquement pas de différence en ce qui concerne le nombre, il y a évidemment des différences génétiques, qui sont cependant extrêmement modestes. Si on compare le génome du chimpanzé et celui de l'homme, il y a entre 1 et 2 % de différence, ce qui est extrêmement peu. Comment comprendre ces constances de nombre alors qu'on passe des 40 millions de neurones de la souris aux 10 à 100 milliards de neurones de l'homme ?

La réponse est qu'il n'y a pas beaucoup de gènes de différence, mais que ces gènes portent sur le développement de formes critiques. On arrive ainsi à comprendre comment le cerveau a pu évoluer des ancêtres de l'homme aux anthropoïdes, à l' homo sapiens lui-même, et comment de ce fait un certain nombre de propriétés fonctionnelles associées à l'organisation de ce cerveau apparaissent spontanément, simplement du fait de l'innéité, en quelque sorte, de ce développement embryonnaire. Par exemple la succion du sein, le réflexe palmaire de préhension, la reconnaissance d'un visage humain, la distinction chez le bébé entre être vivant et objet inanimé... et beaucoup d'autres dispositions innées universelles de comportements liés à cette organisation cérébrale.

La variabilité individuelle permet à ces dispositions innées de présenter des formes de plasticité, de mémoire, de mise en place d'empreintes venant du monde extérieur. Au cours du développement du fStus à l'adulte, et notamment chez le nouveau né, à un stade où se constituent près de 50 % des connexions du cerveau de l'homme adulte, les synapses se forment, certaines en nombre supérieur à ce qu'il sera chez l'adulte. L'interaction avec le monde extérieur va contribuer à la sélection de certaines connexions et à l'élimination de certaines autres.

Suite du résumé de la conférence : Documents Format Pdf - "Les universaux de la pensée" - Jean-Pierre Changeux

Epigénèse et variabilité individuelle

Invariance des représentations de la réalité extérieure

Conscience et organisation universelle de la pensée

Communication sociale, diversité culturelle et intercompréhension

Universalisation des connaissances et universalité des savoirs : la connaissance scientifique

De là l'importance de l'éducation, dans les relations parentales ou au niveau de l'école, c'est-à-dire de cette transmission épigénétique de la diversité des cultures, des langues, des écritures, des systèmes de croyance, mais aussi des connaissances partagées, en particulier lorsqu'elles sont tout à fait élémentaires.

Le problème maintenant est de savoir si tous les signifiés qui se trouvent associés aux signifiants sont acceptés universellement comme correspondant à une représentation du monde qui soit une représentation aussi proche du réel que possible. Y a-t-il des représentations du monde acceptées au niveau de l'ensemble de l'humanité ou pas ?

Il existe bien entendu des systèmes de représentation symboliques, entre autres mythiques, très importants dans les sociétés humaines, jouant un rôle crucial pour l'identité et la survie des groupes. Ces représentations, ces mythes correspondent-ils à la réalité du monde ? Leur fonction de renforcement du lien social est importante, mais cela se fait-il à l'avantage ou au détriment de l'objectivité des connaissances ?

C'est là probablement qu'il faut faire intervenir une évolution extraordinaire, qui a pris place en Grèce : le changement de régime politique et juridique rendant possible un débat public et critique acceptant la multiplicité des écoles de pensée, un débat sur les solutions. Par exemple, quel est le meilleur moyen de traiter la maladie ? Invoquera-t-on les dieux ? Fera-t-on un sacrifice ? Prendra-t-on une poudre magique ? Un antibiotique ou un agent antiviral ? A question posée, débat public : qu'est-ce qui marche le mieux ? Qu'est-ce qui fonctionne ? Qu'est-ce qui est le plus adéquat au réel et qu'est-ce qui est le plus universel ?

A partir de ces représentations sociales, peut se dégager une distinction entre les croyances et les objets de science. La représentation scientifique apparaît alors, avec sa remise en cause permanente, son mode d'exposition publique et sa nécessaire et constante capacité de révision. Par Yves Michaud

Le texte de la conférence : Documents pédagogiques - "Les universaux de la pensée" - Jean-Pierre Changeux

Source Canal-U TV - UTLS : "Les universaux de la pensée" - Jean-Pierre Changeux - Canal-U

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

jeudi 28 octobre 2010

Conflit, Ritualisation, Droit : La gestion de la Diversité - Yves MICHAUD - 100 mn - UTLS - 25/07/2002



Conflit, Ritualisation, Droit : La gestion de la diversité - Yves MICHAUD - 100 mn - UTLS - 2002
Conférence Université de tous les savoirs - Durée : 100mn 51s - Date : 25/07/2002
Disciplines : Sociologie, Philosophie, Sciences du vivant

Yves MICHAUD : Professeur de Philosophie à l'Université de Rouen, Directeur de Programme au Collège International de Philosophie, Président de la Commission Art du Centre National du Livre, Chargé de la programmation et de la coordination de l'Université de tous les savoirs auprès de la Mission pour la célébration de l'an 2000. Concepteur de l'Université de tous les savoirs et des forums de la démocratie et du savoir. Ancien élève de l'Ecole Normale Supérieure de la rue d'Ulm, Agrégé de Philosophie, Docteur ès-Lettres.

Minutage et Plan de la conférence "Conflit, Ritualisation, Droit : La gestion de la diversité" :
- 02:42 - Présentation
- 01:44 - Introduction
- 07:21 - Les comportements naturels face à la diversité
- 13:34 - La diversité humaine
- 10:32 - La société et les règles
- 06:20 - L'organisation par la règle
- 14:59 - La violence et la guerre
- 07:24 - La ritualisation
- 08:25 - Conclusion
- 16:37 - Questions, partie 1
- 11:13 - Questions, partie 2

Psychologiquement, la relation humaine à la diversité est ambivalente : la diversité suscite la curiosité et stimule ; en même temps elle apparaît comme une menace et déclenche l'agressivité. Les sociétés humaines ont constamment affaire à la diversité. A commencer par celle qui est au coeur de la reproduction. La diversité est en fait dans les individus sous tous les points de vue : physique, mental, passionnel, générationnel. Cette diversité a des effets ambivalents. D'une part, elle permet le renouvellement, l'invention, l'innovation, la réponse aux défis et aux crises. D'un autre côté, elle perturbe les règles, routines, procédures, équilibres mis au point par les groupes pour survivre. Elle doit donc être traitée, gérée, régulée par les groupes .

On peut distinguer deux modes principaux de gestion de la diversité. Le premier mode est celui des traitements violents : anéantissement, viol, confinement, conversion et conquête, assimilation, mais aussi sacralisation, stigmatisation de ce qui est "autre". Une différence importante au sein de ce groupe tient à la différence entre les stratégies de destruction et celles d'assimilation. Le second mode de gestion passe par la production de règles dans un éventail de qui va des routines aux interdits et des coutumes aux règles juridiques. De ce point de vue, les sociétés sont des systèmes de règles plus ou moins cohérentes pour traiter les différences. Une différence importante au sein de ce groupe est celle entre les règles d'assimilation et les règles de différenciation.

Le droit traite à la fois tous les hommes de la même manière et en fonction de leurs différences. Qu'il s'agisse des modes de gestion violents de la diversité ou des modes de gestion par la régulation, ils répondent tous à des finalités sociales et sont soumis à des évaluations morales. Les finalités sociales peuvent entrer ou non en contradiction avec celles de la moralité, mais subsiste la question de savoir à quelles finalités la moralité elle-même répond. Yves Michaud

Source, Biographie, Liens : Canal-U TV - UTLS : Conflit, Ritualisation, Droit : La gestion de la diversité - Yves MICHAUD

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ... Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTVL'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Propriété intellectuelle et nouvelles technologies - A la recherche d’un nouveau paradigme - Michel VIVANT - 84mn - UTLS - 16/09/2000



"Propriété intellectuelle et nouvelles technologies - À la recherche d’un nouveau paradigme" par Michel Vivant - 84mn - 16/09/2000
Producteur : Mission 2000 en France - Université de Tous Les Savoirs - Canal-U TV (Canal-U - UTLS)

Michel VIVANT : Professeur à l'Université de Montpellier I. - Responsable de l'ERCIM (Équipe de Recherche Créations Immatérielles et Droit), aujourd'hui composante de l'UMR 815. Membre des commissions et groupes d'experts cités plus haut. Doctorat en droit, Agrégation de droit, Doctorat Honoris Causa de l'Université de Heidelberg.

Avec les " nouvelles technologies " qui sont les technologies de l'information et de la communication, de l'informatique et de l'Internet, le droit de la propriété intellectuelle se voit confronté à un objet nouveau pour lui : l'information, ou, à tout le moins, pour lequel il est mal préparé, quand l'information surgit, brute, comme valeur à appréhender. Cela touche bien des branches de la discipline. Qu'on songe à la question de la brevetabilité des séquences génétiques (qui sont une forme d'information codée). Mais c'est le droit d'auteur et les droits apparentés qui sont les premiers concernés. Avec le surgissement de " biens informationnels ", c'est une autre conception de ces droits qui pointe. Les logiciels, les bases de données ou les liens hypertextes ont peu à voir avec les oeuvres traditionnelles et ont nécessairement un fort effet déstabilisateur à l'égard d'un droit qui n'a pas été conçu pour eux. Le triomphe de la logique marchande est patent et va de pair, via notamment l'Internet, avec le spectre de la mondialisation. On ne saurait donc s'étonner que toutes sortes d'antagonismes s'exacerbent et qu'on assiste dans le même temps à une montée en force de la propriété intellectuelle et d'une contestation de celle-ci. Au final, il paraît bien difficile de faire l'économie d'une interrogation sur le nouveau paradigme qu'il faudrait élaborer pour un droit nouveau adapté à des réalités nouvelles.

Minutage et Plan de la conférence "Propriété intellectuelle et nouvelle technologie" :
- 02:10 - Présentation
- 12:07 - Introduction
- 05:37 - Les biens informationnels (dans le droit)
- 07:40 - Le triomphe de la logique marchande
- 06:48 - Le spectre de la mondialisation
- 11:54 - L'apparition des antagonismes forts
- 04:14 - Se tourner vers d'autres paradigmes
- 02:03 - Conclusion
- 31:32 - Questions

Texte de la 260e conférence de l'Université de tous les savoirs donnée le 16 septembre 2000

Propriété intellectuelle et nouvelles technologies - À la recherche d’un nouveau paradigme par Michel Vivant

Propriété intellectuelle et nouvelles technologies : voilà ce qu’à la manière du Canard Enchaîné on pourrait appeler un « apparentement terrible ». C’est que ces « nouvelles technologies » (bel anglicisme et figure de style convenue, soit dit en passant) sont les technologies de l’information et de la communication, technologies de l’informatique et de l’Internet, deux univers qui, en quelques décennies, ont bousculé notre appréhension du monde, au point qu’il est usuel de parler de société postindustrielle ou de société de l’information sans d’ailleurs toujours l’esprit critique souhaitable.

Cette information qui en est le soubassement, est, cependant, présente ailleurs et là encore déstabilisante pour les propriétés intellectuelles : qu’on songe à l’épineuse question de la brevetabilité des séquences génétiques qui sont aussi, codée en une certaine forme, de l’information.

À toutefois en rester aux seules technologies de l’information et de la communication, qu’en est-il donc de leur confrontation à la propriété intellectuelle, aux propriétés intellectuelles plus exactement puisque celles-ci sont multiples, des brevets aux droits des artistes-interprètes en passant par les droits sur les obtentions végétales ? Elle se présente de manières très diverses. Je ne me hasarderai pas à un tableau exhaustif, mais j’évoquerai la marque, le brevet, le droit d’auteur et les droits apparentés qui sont au cœur de notre réflexion.

Les marques ont beaucoup fait parler d’elles dans leur confrontation avec les noms de domaine qui sont un élément clef de la navigation sur Internet. Il faut assigner à l’une, la marque, comme à l’autre, le nom de domaine, la place qui lui revient. Ce nom est-il plus qu’une adresse, doit-il être tenu pour un nouvel identifiant (comme existent, outre la marque, l’enseigne ou le nom commercial, par exemple), quel statut lui réserver ? Nous en sommes aux premières interrogations. Tout au plus peut-on noter qu’avec le nom de domaine, la règle ne se borne pas à gérer la rareté comme il en va souvent... mais peut-être l’organise.

Avec le brevet, c’est une question d’adaptation d’un droit, qui fut pensé au XVIIIe pour la mécanique, qui se pose. Le modèle était alors la machine animée de rouages telle l’horloge servant à Voltaire à fonder son Grand Horloger et voici que l’information, avec le logiciel, devient l’âme de la technique, lors même que, pour le sens commun, information et technique appartiennent à deux ordres différents. L’Office européen des Brevets de Munich n’échappe pas, d’ailleurs, à ces ravages du sens commun. Le nominalisme y triomphe. L’essentiel est d’éviter les mots interdits. Et pourtant il y a peu de mots plus polysémiques que celui d’information ; ceux qui font valoir que la machine de ce temps est une « machine virtuelle » et qu’on peut par le détour des bits obtenir ce qui passait naguère par roulements à billes et roues dentées sont dans le vrai.

Si la Convention dite sur le Brevet européen de Munich de 1973 interdit la prise de brevets sur des programmes d’ordinateur, cela n’empêche pas l’Office — qui vit des brevets — de délivrer de tels titres, dans un grand bricolage que la doctrine viendra, plus ou moins, doter de rationalité. Sous forte pression américaine, la question n’est peut-être déjà plus de savoir si un logiciel, voire un moteur de recherche, est brevetable. Car, sous cette pression, le brevet tend à changer de visage et à quitter le monde de l’industriel ou du technique pour investir tout le champ de l’« utile » avec le vague extrême que comporte ce mot.

Impérialisme pour impérialisme, c’est vers le droit d’auteur et ce que j’ai appelé les « droits apparentés », droits dits voisins mais aussi autres droits dans la mouvance du droit d’auteur, qu’il faut se tourner. C’est dans la perspective qui est ici la nôtre que la confrontation conduit aux remises en cause les plus radicales.

Car le droit d’auteur de cette charnière entre deux millénaires est bien éloigné de celui dont Beaumarchais puis Hugo s’étaient faits les promoteurs. Qu’il s’agisse du droit d’auteur proprement dit que connaissent l’Europe continentale, l’Amérique latine, bien des pays arabes, les pays de l’Afrique noire francophone, ou du copyright anglo-saxon (qui n’est ni tout à fait semblable, ni tout à fait un autre), la brèche est apparue avec l’idée que droit d’auteur ou copyright appréhendaient des formes, comme telles, littéraires, musicales, plastiques... mais des formes. Or tout est forme. Il n’y a pas de produit de l’esprit humain qui soit in-forme. Mais, à ce compte là, le droit d’auteur est partout, s’il est vrai, selon un mot que j’affectionne, que l’immatériel, produit de l’esprit, est partout.

Un mélange détonant

Technologies de l’information et de la communication, immatériel, information, droit d’auteur : voilà qui va se conjuguer en un mélange étonnant et détonant et obliger à de sévères révisions. Ce sont des créations nouvelles qui surgissent : logiciel, base de données, multimédia... De vieilles créations sont « revisitées » : musiques ou images numérisées par exemple. De nouveaux instruments sont disponibles : synthétiseur ou logiciel de création assistée. De nouveaux modes de création se font jour : sampling ou animation 3D pour ne citer que ceux-là.

Le vieux droit est-il caduc ? Certains l’affirment, comme John P. Barlow, fondateur de l’ Electronic Frontier Foundation, qui a déclaré péremptoirement : « Everything you always knew about intellectual property is wrong ». Mais il y a aussi les tenants d’un droit marmoréen pour qui les « nouvelles technologies » ne sont que péripéties et qui reste et doit rester (à moins que cela ne soit l’inverse) intact, à travers vents et marées, coups de boutoirs logiciels et bourrasques des réseaux.

Comme souvent la vérité se trouve entre les deux extrêmes. Avec le surgissement des « biens informationnels » dans le champ du droit, une autre perception du droit d’auteur et des droits apparentés pointe. Le triomphe de la logique marchande va de pair avec le spectre de la mondialisation. On ne s’étonnera donc pas que toutes sortes d’antagonismes s’exacerbent. D’où il paraît nécessaire, au-delà des interrogations « de cuisine » (juridique s’entend), de se demander vers quel nouveau paradigme il faudrait se tourner... La suite du texte de la conférence : Propriété intellectuelle et nouvelles technologies par Michel Vivant

Source Canal-U TV : Propriété intellectuelle et nouvelles technologies - Michel Vivant - 2000

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT - 56mn - UTLS - 15/09/2000



Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT - 56mn - "Mission 2000 en France" - 15/09/2000
Cécile ALVERGNAT : Directrice Générale de l'Échangeur : Centre Européen de Réflexion et de Formation sur les Nouvelles Technologies du Commerce de Biens et de Services.

L'avènement d'une société et d'une économie de l'information dont Internet en est l'infrastructure la plus importante, représente l'un des phénomènes majeurs de la fin du XXe siècle. L'actualité nous permet d'assister en direct au bouleversement apporté par les nouvelles technologies de l'information et de la communication (NTIC) dans la vie quotidienne de chacun, que ce soit à travers l'école, le lieu de travail, le domicile. De nouvelles formes d'échanges s'imposent, que ce soit au niveau de l'information, de l'économie et du commerce, de la politique, de l'administration ; son accessibilité mondiale en fait un formidable outil au service de la liberté d'expression et des échanges entre les personnes.
Avec la micro-informatique, nous avions déjà mesuré et constaté les avantages et les inconvénients des capacités sans cesse améliorées de traitement, de stockage et de transfert des informations. Aujourd'hui, avec l'essor d'Internet et sa mondialisation, nous découvrons réellement ce que change dans notre vie, l'accès généralisé aux informations, la facilité de leur collecte et de leur traitement, mais également la facilité de leur transmission...

Minutage et Plan de la conférence "Protection de la vie privée et société de surveillance et d'information" :
- 01:51 - Présentation
- 03:12 - Introduction
- 07:41 - Les nouvelles formes de l'échange
- 07:41 - Internet, puissant instrument de collecte de données
- 06:18 - Des moyens pour créer la confiance et la sécurité
- 07:41 - Le retour aux valeurs républicaines
- 02:36 - La formation de tous, entreprises et citoyens
- 18:47 - Questions

Texte de la 259e conférence de l'Université de tous les savoirs donnée le 15 septembre 2000.
Protection de la vie privée et société de surveillance et d'information par Cécile ALVERGNAT

L'avènement d'une société et d'une économie de l'information dont Internet en est l'infrastructure la plus importante, représente l'un des phénomènes majeurs de la fin du XXe siècle. L'actualité nous permet d'assister en direct au bouleversement apporté par les nouvelles technologies de l'information et de la communication (NTIC) dans la vie quotidienne dechacun, que ce soit à travers l'école, le lieu de travail, le domicile. De nouvelles formes d'échanges s'imposent, que ce soit au niveau de l'information, de l'économie et du commerce,de la politique, de l'administration ; son accessibilité mondiale en fait un formidable outil au service de la liberté d'expression et des échanges entre les personnes.

Avec la micro-informatique, nous avions déjà mesuré et constaté les avantages et les inconvénients des capacités sans cesse améliorées de traitement, de stockage et de transfert des informations. Aujourd'hui, avec l'essor d'Internet et sa mondialisation, nous découvrons réellement ce que change dans notre vie, l'accès généralisé aux informations, la facilité de leur collecte et de leur traitement, mais également la facilité de leur transmission.

Les NTIC créent de nouvelles formes d'échanges

Plusieurs phénomènes complémentaires y contribuent.
L'accès à Internet qui se développe d'une manière importante : à ce jour, sont connectés au réseau Internet, 7 millions de personnes en France, 90 millions en Europe et 360 millions dans le monde.
L’Internet n’est pas un monde homogène et uniforme, de ce fait ce n’est pas un monde stable : par leur nature, ces technologies ouvrent de nombreuses voies pour de nouveaux usages dont à ce jour nous n’avons perçu qu’une faible part. D’autant plus que l’évolution technologique évolue avec une rapidité sans précédent, due au fait que les transformations sociales et techniques se nourrissent directement les unes des autres et s’enrichissent mutuellement en continu.

Une découverte faite à l’un des bouts du monde peut être testée immédiatement sur plusieurs continents, observée, transposée et déployée avec une rapidité inégalée à ce jour. Ce raccourcissement de l’espace temps et cette réactivité immédiate changent radicalement les donnes en matière d'échange. Ajoutons qu'Internet est constitué d’un ensemble de fonctionnalités qui permettent d’imaginer des usages très nombreux et totalement nouveaux.
Tout ceci contribue au fait qu'Internet n'est pas encore un monde stable.

L'Internet est de par sa nature une technologie universelle, pensée pour convenir à tous types de réseaux et d'ordinateurs. Les protocoles de communication de l'Internet sont bien plus flexibles que ceux que nous connaissions jusqu'à présent.
De ce fait, Internet offre de nombreuses possibilités. Il s'adapte à de multiples terminaux. Les télévisions, les téléphones mobiles, les assistants numériques personnels, voire d'autres objets, livre électronique e-book, terminaux MP3 pour la musique, four à micro-onde, etc… qui peuvent communiquer chacun et ensemble avec le réseau. Il apporte une nouvelle dimension à l'échange d'informations et de données puisqu'il réunit sur un même support, des médias jusqu'alors séparés : le son, l'image fixe et animée et le texte. Il s'achemine au travers de réseaux divers tels que : téléphonie, câble, satellite, électrique, etc... La suite du texte de la conférence - Document Format Pdf : Protection de la vie privée et société de surveillance et d'information par Cécile ALVERGNAT

Source, Biographie, Documents - Canal-U TV : Protection de la vie privée et société de surveillance et d'information - Cécile ALVERGNAT

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...

Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN - Cryptographie, Propriété intellectuelle - 89mn - UTLS - 14/09/2000



Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN - 89mn - UTLS - 14/09/2000
Thomas-Xavier MARTIN : Ingénieur diplômé de l'École polytechnique diplômé en droit et sciences criminelles de la faculté de Sceaux Officier de Police Judiciaire.

Cette conférence essaiera de jeter un regard original sur certains aspects de la révolution numérique : plutôt que de tenir un discours cent fois entendu sur les dangers du piratage et sur la criminalité informatique, je vais tenter, avec un regard d'ingénieur, de matérialiser les enjeux et les dangers véritables du tout-numérique. Pour cela, après avoir introduit les notions techniques dont j'aurai besoin, je m'attacherai à expliquer les faiblesses fondamentales des systèmes d'information en matière de sécurité. Puis, j'essaierai de dissiper l'illusion entretenue sur la cryptographie comme solution aux problèmes de sécurité. Le cas de la propriété intellectuelle me servira ensuite à illustrer comment nous risquons de perdre une grande partie de nos libertés fondamentales si nous demeurons incapables d'accepter les conséquences de la révolution numérique. J'esquisserai en guise de conclusion les grandes lignes des réformes juridiques qu'il nous faut envisager dès aujourd'hui.
Source, Biographie, Liens - Canal-U : Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN

Minutage et Plan de la conférence :
- 00:26 - Présentation
- 05:01 - Introduction
- 12:51 - Le cadre technique: la révolution numérique
- 12:09 - "L'ordinateur de Satan"
- 25:00 - L'illusion cryptographique
- 12:44 - Propriété intellectuelle et libertés publiques
- 07:38 - Droit et stabilité sociale: les enjeux de la réforme
- 09:16 - Conclusion
- 04:42 - Questions

Texte de la 258e conférence de l'Université de tous les savoirs donnée le 14 septembre 2000.

Insécurité Informatique : épouvantails et dangers réels de la révolution numérique par Thomas-Xavier Martin

Le cadre technique : la révolution numérique

L'humanité dispose depuis quelques années d'un langage universel qui lève la vieille malédiction de Babel. Ce langage, ce sont les chiffres : nous savons en effet désormais numériser presque tous les véhicules de l'esprit humain : le texte, le son, les images fixes ou animées, et même certaines idées mathématiques (qui traitent de la programmation des ordinateurs).

Numériser, c'est traduire, coder, transcrire, représenter quelque chose avec des chiffres. La révolution numérique tient dans la simple affirmation : « les chiffres sont un langage universel. »

Numériser des textes ou du son ne serait pas d'un grand intérêt si nous ne disposions pas de machines pour manipuler ces données ; selon la langue, l'accent est mis sur certains types de manipulation.

En anglais, on dit computer, c'est-à-dire calculateur ; en français, le linguiste Jacques Perret choisit en 1954 un mot du vocabulaire théologique qui met l'accent sur le classement : « ordinateur ». Le suédois a préféré rester plus générique : comme on appelle motor (moteur) une machine qui produit du mouvement, on appellera dator les machines qui traitent les données ( data).

Tout l'intérêt des ordinateurs vient de ce qu'ils sont programmables : ils peuvent suivre une série d'instructions conçues ad hoc pour le problème à traiter. Depuis l'EDSAC, un des premiers ordinateurs construit à Cambridge (Royaume-Uni) en 1949, tous les ordinateurs sont des machines de von Neumann, ce qui veut dire qu'ils ne font pas de différence interne fondamentale entre les données qu'ils doivent traiter et les instructions (numérisées) pour les traiter. L'architecture de von Neumann est plus souple et plus efficace que les architectures concurrentes, ce qui a conduit à son adoption universelle, mais nous verrons que cette souplesse se paie en termes de sécurité.

La révolution industrielle a attendu le développement des réseaux de chemin de fer pour exploser : seul le réseau de distribution rendait rentable la fabrication de masse. De la même façon, la révolution numérique n'affecte profondément nos vies que depuis la naissance d'un réseau mondial d'échange de données entre les ordinateurs. Ce réseau est l'Internet.

L'architecture de l'Internet a été développée initialement pour permettre des échanges entre des centres de calcul militaires. Le réseau devait pouvoir survivre à la destruction de certains de ses nSuds ; en conséquence, il n'y a ni centre ni point vital (qui serait une trop belle cible), et les itinéraires empruntés pour transmettre des données d'un point A à un point B sont imprévisibles (car l'acheminement des données ne doit pas dépendre d'un point vital).

Dans les années suivantes, l'Internet a surtout été utilisé pour des échanges entre chercheurs. Les deux caractéristiques précédentes convenaient parfaitement aux habitudes des communautés universitaires :

- pas de centre, donc pas d'autorité capable de censurer certains travaux, et pas d'autre évaluation du travail publié que celle de ses pairs connectés au réseau ;

- une diffusion imprévisible, et donc incontrôlable, car les idées doivent circuler librement pour porter fruit ; de même, on peut seulement revendiquer la paternité d'une idée, sans aucun moyen de restreindre les applications ou l'usage qui en sont faites. En effet, c'est quand une vieille idée est utilisée de façon nouvelle que la science avance !

Pendant cette période ont été inventés l'essentiel des procédés techniques aujourd'hui utilisés. Directement issus de la recherche publique, aucun brevet ou copyright ne restreint leur usage, ce qui a considérablement facilité leur adoption (une conséquence intéressante est que l'Internet qui n'avait ni centre administratif ni centre politique n'a pas non plus de centre technique). Sur ces bases, le réseau s'est développé jusqu'à atteindre une taille critique qui tue dans l'Suf tout projet concurrent. En s'étendant au grand public, la communauté des utilisateurs a cependant gardé les valeurs « morales » des pionniers : l'Internet est libre et ouvert, décentralisé, non-commercial, sans gouvernement ni censure. Tout est alors en place pour faire exploser deux siècles de droit et de constructions politiques...

L'ordinateur de Satan

Après avoir décrit le décor, il nous faut maintenant expliquer pourquoi il est si difficile de sécuriser les systèmes traitant des données numériques.

La plupart des objets conçus aujourd'hui le sont en suivant une approche « fonctionnelle » : l'objet doit avoir une certaine fonctionnalité, rendre un certain service, permettre d'accomplir quelque chose. La méthode de conception consiste à créer, tester, corriger ce qui ne va pas, et recommencer jusqu'à l'obtention d'un résultat satisfaisant.

Certains produits potentiellement dangereux sont quant à eux conçus selon une approche « anti-accident » (l'anglais, langue usuelle des ingénieurs, fait une distinction entre safety engineering, terme rendu ici par « approche anti-accident », et security engineering traduit plus loin par « approche de sécurité ». Le français traduit safe et secure par le même mot : « sûr », ce qui complique l'exposé des différences entre les deux approches) : on peut notamment mentionner tout ce qui a trait aux transports (avions, trains, voitures, etc.) ou à l'accueil du public (stades, hôtels), ce qui est utilisé par des enfants (jouets), ou par des adultes de façon répétitive et machinale (machines-outils) ou même par le grand public (outils mécaniques divers). L'objectif ici n'est plus de garantir que l'objet fonctionnera comme on l'attend dans la plupart des cas ; il s'agit simplement de faire en sorte que dans des circonstances exceptionnelles, les dysfonctionnements ne virent pas à la catastrophe...

À titre d'exemple, rappelons qu'une tribune de stade ne doit pas s'écrouler quand des supporters enthousiastes sautent dessus en rythme, qu'un avion ne doit pas s'écraser quand une pièce métallique traîne sur la piste d'envol, qu'un train immobilisé et en flammes doit permettre l'évacuation des voyageurs ou qu'un pétrolier doit subir les tempêtes hivernales de la Manche sans enduire la moitié de la Bretagne d'une épaisse couche de fuel...

L'ingénieur chargé d'éviter les accidents dès la conception se bat contre la loi de Murphy : cet aphorisme formalisé dans l'aéronautique américaine des années cinquante stipule que tout ce qui peut arriver de nocif arrivera ( Whatever can go wrong, will !) L'objectif de l'approche anti-accidents est d'éviter une catastrophe face à des conditions exceptionnelles ; il n'est pas nécessaire que la fonctionnalité initiale du produit persiste, il est juste suffisant d'empêcher le pire. Pour lutter ainsi contre le hasard, on imagine les pires conditions vraisemblables, et on essaie de prévoir une façon de limiter les conséquences néfastes. Là encore, les tests jouent un grand rôle.

L'approche de sécurité est complètement distincte : elle n'est utilisée que pour concevoir des produits protégeant des biens contre la malveillance. Il ne s'agit plus de lutter contre le hasard, l'inattention ou des conditions difficiles ; il faut contrer un adversaire intelligent et déterminé, qui va provoquer des dysfonctionnements au pire moment et de la pire façon. Contrairement aux autres produits issus de l'approche fonctionnelle, un produit de sécurité n'est pas utile pour ce qu'il permet de faire, mais pour ce qu'il interdit.

Pour un produit de sécurité, les tests ne sont pas un élément central de la conception. Un test de sécurité ne prouve rien : imaginez qu'on fasse tester une serrure par un cambrioleur professionnel ; s'il parvient à la crocheter, le test prouve que la serrure n'est pas suffisamment sûre. Mais s'il ne parvient pas à la crocheter, le test n'a rien prouvé, et en tous cas certainement pas que personne n'arrivera jamais à crocheter la serrure...

Il est impossible de prouver la sûreté d'un produit. Tout au plus peut-on l'analyser en profondeur et vérifier que des attaques classiques ne marchent pas. De tels audits doivent s'exercer sur un périmètre très large et inclure la totalité du système utilisé : il est inutile de blinder sa porte et de renforcer sa serrure si les murs ne sont pas solides...

L'image de la serrure est utile, mais aussi trompeuse. Les serrures modernes sont devenues extrêmement complexes, et on pourrait penser qu'un système complexe sera plus sûr qu'un système simple. En général, c'est faux, et les systèmes complexes sont peu sûrs pour deux raisons.

La première raison tient directement à leur taille : plus il y a d'éléments et de tâches à accomplir, plus il y a de chances qu'au moins une faille existe. Le caractère modulaire des systèmes complexes aggrave le problème : les ingénieurs divisent pour régner et fragmentent un problème complexe en de nombreux sous-problèmes plus simples. La modularité est nécessaire pour résoudre des problèmes difficiles, mais elle a aussi pour conséquence de multiplier les failles potentielles : chaque module, mais aussi chaque interaction entre plusieurs modules est le lieu potentiel d'une faille de sécurité, et le nombre d'interactions augmente exponentiellement avec le nombre de modules.

La deuxième raison est directement liée aux analyses nécessaires pour rechercher des failles de sécurité : un système complexe est plus difficile à comprendre, à se représenter, à analyser. Au-delà d'une certaine taille, l'analyste ne peut plus avoir en tête une image mentale complète et correcte du système, et la probabilité qu'une faille passe inaperçue augmente.

Rappelons qu'il suffit d'une seule faille pour compromettre l'usage d'un système : la sécurité de l'ensemble est égale à la sécurité du maillon le plus faible... Un système complexe perd sur tous les fronts : la chaîne est plus longue, la modularité rajoute des maillons, le grand nombre de maillons empêche de tous les tester, voire même d'avoir conscience de leur existence à tous.

Prenons ce que nous venons de voir sur l'ingénierie de la sécurité et appliquons-le aux systèmes numériques : nos ordinateurs peuvent-ils être sûrs ? Au contraire, il est très probable qu'ils soient de vraies passoires... Tout concourt à cet effet !

D'abord, le marché pousse inlassablement à la complexité : plus de choix, plus d'options, plus de capacités, plus de fonctionnalités, plus de choses possibles ! Les décisions d'achat des ordinateurs se prennent en comparant des listes de fonctionnalités, et la concurrence effrénée de ces marchés pousse chaque fabricant à rendre ses machines encore plus complexes, encore plus souples, encore plus puissantes, de façon à encourager l'obsolescence des matériels installés et leur renouvellement d'année en année.

Rappelons ensuite qu'améliorer la sécurité d'un système coûte cher : il faut des études sans fin, des analyses coûteuses, et tout ça pour un résultat sans garantie, car la sécurité ne se prouve pas. Comme les fabricants ne peuvent pas se targuer de la sécurité de leur système (ils n'en sont pas certains, même après avoir dépensé beaucoup d'argent.), la sécurité de leurs produits n'est pas un argument de vente, et elle est donc maintenue au minimum acceptable par le client.

Ici comme ailleurs, c'est le client qui fixe le niveau de sécurité des produits du marché ; mais presque tout le monde a une idée du niveau de sécurité acceptable pour une serrure, un antivol de vélo ou une porte blindée, alors que presque personne ne dispose des compétences nécessaires pour évaluer le niveau de sécurité d'un ordinateur.

Enfin, les données numériques qui circulent sur l'Internet ont quelques particularités gênantes... Prenons pour exemple une suite de chiffres qui représentent un document envoyé par Alice à Bob. Ces chiffres circulent sur l'Internet entre l'ordinateur d'Alice et celui de Bob, et il se trouve qu'ils passent sous les yeux de Charlie. Si Charlie copie la suite de chiffres, il obtient une copie de la lettre d'Alice absolument identique à celle reçue par Bob. Cette copie est si parfaite que la notion d'original disparaît : les deux copies sont originales. Pire encore, ni Alice ni Bob n'ont aucun moyen de détecter à partir de leurs exemplaires qu'une copie a eu lieu. Si Charlie intercepte le flux de chiffres destiné à Bob, puis le renvoie à Bob sous son propre nom, Bob n'a aucun moyen de savoir que le document provenait initialement d'Alice et non de Charlie. Si Charlie intercepte le flux de chiffres et le modifie avant de le renvoyer à Bob sous le nom d'Alice, Bob n'a aucun moyen de détecter que le document a été modifié entre Alice et lui.

En d'autres termes, quand on parle des données numériques circulant sur l'Internet, on peut dire que la copie est parfaite et indétectable, la modification est indécelable et l'attribution est impossible.

La dernière touche sur le tableau est encore plus subtile : comme nous l'avons indiqué plus haut, les ordinateurs sont utiles parce qu'ils sont programmables et donc adaptables à différents problèmes. Mais ces programmes sont eux-mêmes numérisés et gérés par la machine indifféremment des données numériques qu'ils doivent traiter (c'est le concept de machine de von Neumann). Donc, ils ont les mêmes propriétés : copie parfaite et attribution impossible, mais surtout modification indécelable...

Récapitulons :

- l'ingénierie de la sécurité est extrêmement difficile ;

- le marché de l'informatique génère des systèmes de plus en plus complexes, et donc de moins en moins sûrs ;

- ce même marché n'a aucune tendance à améliorer la sécurité de ses produits ;

- les données numériques sont intrinsèquement difficiles à sécuriser ;

- les programmes des ordinateurs sont eux-mêmes numériques, et donc difficiles à sécuriser.

Le professeur britannique Ross Anderson a donc pu dire à juste titre que la sécurité informatique était un défi similaire à la programmation contre son gré de l'ordinateur de Satan.

L'illusion cryptographique

La cryptographie est la science des codes secrets. La cryptographie traditionnelle proposait une solution au problème de la confidentialité, mais pas aux autres questions soulevées ci-dessus. Un immense espoir naquit au début des années 1980, avec la naissance de nouvelles techniques de cryptographie, dites « asymétriques ». On allait pouvoir signer des documents numériques, les transmettre en toute confidentialité, en garantissant leur intégrité, aux destinataires prévus et seulement à eux.

Petit à petit, les universitaires honnêtes ont commencé à se rendre compte que le problème n'était pas si simple, comme nous allons l'expliquer. Mais avec l'explosion de l'Internet, ce qui n'était qu'une discipline universitaire dont l'application se limitait à la diplomatie est devenu un secteur industriel en plein essor, où le discours convenu est toujours celui d'un avenir radieux et fortement sécurisé sans aucun nuage. L'illusion cryptographique, entretenue par ceux qui y trouvent un intérêt financier, consiste à prétendre que l'ajout d'une couche de cryptographie sur nos ordinateurs suffira à nous préserver de tous les maux décrits ci-dessus.

Malheureusement, la sécurité d'un système doit s'envisager globalement, et ne peut donc se réduire à la cryptographie. Pour sécuriser un ordinateur connecté à un réseau, il faut vérifier la qualité des primitives cryptographiques, mais aussi analyser les protocoles d'utilisation (quelles informations sont échangées et sécurisées, et dans quels buts ?), puis s'intéresser à l'architecture de l'ordinateur (les données numériques à sécuriser sont-elles accessibles directement et en clair quelque part ?), à la structure du réseau, aux interactions avec les autres ordinateurs, à l'environnement physique des machines, et enfin à l'utilisateur, qui peut être complice ou manipulé...

La sécurité des systèmes numériques apparaît ainsi comme un véritable oignon aux multiples couches. Chaque couche s'analyse et se sécurise de façons différentes, et il suffit d'une seule faille dans une seule couche pour compromettre la sécurité de l'ensemble. La cryptographie est ainsi replacée à sa juste valeur : une solution de sécurité pour la couche la plus profonde, qui ne règle en rien les problèmes des couches supérieures...

Tout ceci reste très théorique, et le fonctionnement réel des systèmes numériques prétendus sécurisés n'a fait l'objet que de peu d'études jusqu'en 1995. Ross Anderson publia cette année là un article intitulé « Pourquoi les systèmes cryptograpiques échouent » qui fut un coup de tonnerre dans le ciel bleu des cryptographes. Après avoir étudié près d'une centaine de cas de pénétration de systèmes numériques prétendus sécurisés (essentiellement bancaires), Anderson démontra que toutes les failles qui avaient été exploitées se trouvaient dans les couches supérieures de l'oignon, et pas dans la couche cryptographique.

Anderson a distingué deux grandes catégories de causes ayant permis les pénétrations : les erreurs d'implémentation et les décisions de gestion ineptes. Dans le premier cas, des failles béantes persistaient dans les couches intérieures de l'oignon. Anderson cite le cas d'un fabricant de distributeurs à billets dont les couches cryptographiques étaient parfaites, mais qui, pour les besoins des tests du mécanisme de distribution des billets, avait programmé l'ordinateur de façon telle qu'un code de 10 chiffres tapé sur le clavier avait pour résultat la distribution automatique des dix premiers billets de la pile. Tant que cette manipulation fut réservée aux opérateurs de l'usine chargés des tests, il n'y eut pas de problème ; mais une série de distributeurs fut livrée aux banques avec cette fonctionnalité toujours en place, et le code mentionné explicitement dans le manuel d'utilisation. Le chiffre des pertes survenues en quelques jours ne fut jamais divulgué.

Anderson matérialisait ainsi la réalité de l'oignon ; mais sa contribution la plus importante réside dans l'analyse de la deuxième catégorie de causes (les décisions de gestion) et dans la prise de conscience publique qu'un système sécurisé devait vivre avec ses utilisateurs, loin du laboratoire où on l'avait conçu. L'utilisateur, évoluant dans une structure sociale et hiérarchique donnée, prenait ainsi toute l'importance qui est la sienne dans l'analyse de la sécurité d'un système.

Au fil des années, à la suite d'Anderson, on se rendit compte par exemple que :

- une politique de sécurité trop stricte sera contournée par ses utilisateurs ;

- les spécialistes de la sécurité d'une banque préféreront se taire plutôt que d'attirer l'attention sur les conséquences néfastes d'une décision prise très haut dans leur échelle hiérarchique ;

- il est facile de manipuler au téléphone un employé bancaire pour obtenir communication d'informations sensibles disponibles dans le système sécurisé de la banque.

Le facteur humain devient alors central dans la mise en place de systèmes sécurisés, dans leur cycle de vie et d'utilisation. La publication en 1998 par une doctorante de l'université américaine Carnegie-Mellon (Pittsburgh, Pennsylvanie) d'un article intitulé Why Johnny can't encrypt a orienté les recherches modernes dans une nouvelle direction : Alma Whitten a demandé à une série d'étudiants habitués à manipuler un ordinateur d'utiliser un logiciel commun de cryptographie pour envoyer un courrier électronique sécurisé à un correspondant fictif. Bien qu'ayant à leur disposition un ordinateur où tous les logiciels étaient parfaitement installés, ainsi que les manuels du logiciel de cryptographie, aucun parmi la vingtaine de cobayes n'a réussi à envoyer le message crypté au bout d'une heure et demie d'essais. Pire encore, plus de la moitié des étudiants ont envoyé le message en clair sans s'en rendre compte.

Dans la continuation des travaux de Whitten et à partir de ma propre expérience des systèmes sécurisés, j'ai été amené à formaliser un principe empirique conçu sur le modèle du principe de Heisenberg (qui stipule qu'on ne peut connaître précisément à la fois la position et la vitesse d'une particule élémentaire).

Principe de Whitten

Pour un système numérique, le produit du niveau de sécurité par la facilité d'utilisation ne peut dépasser une constante fixe. En d'autres termes, il y a un moment où l'on ne peut augmenter la sécurité d'un système sans diminuer sa facilité d'utilisation. Une troisième formulation, plus lapidaire : un système facile à utiliser ne peut pas être sûr, et un système sûr est difficile à utiliser.

Reprenons : la sécurité d'un système installé peut être anéantie par une seule décision de gestion inepte ; le facteur humain garantit une instabilité importante ; les systèmes sûrs sont quasi-inutilisables par le grand public.

« Et pourtant, elle tourne ! » aurait dit Galilée à l'annonce du verdict de son procès ; et pourtant, chacun d'entre nous utilise chaque jour des systèmes numériques prétendus sécurisés : cartes bancaires, téléphones portables, distributeurs à billets, etc. Pour les spécialistes du sujet, aucun de ces systèmes destinés au grand public n'a un niveau de sécurité adéquat ; et pourtant, nous les utilisons !

Deux logiques s'affrontent : pour les industriels, le manque de sécurité de leurs systèmes est géré comme un risque : si le coût de la fraude à la carte bancaire est significativement inférieur au montant des commissions encaissées par les banques, pourquoi celles-ci dépenseraient-elles de l'argent pour améliorer la sécurité du système ?

Pour les citoyens, il est impossible, sauf à une minorité, d'avoir un avis objectif sur le niveau de sécurité d'un système. Tout se joue sur l'image perçue et sur la confiance placée, souvent aveuglément dans le système.

Les enjeux financiers autour de ces systèmes sont énormes, et conduisent souvent les industriels à employer tous les moyens à leur disposition pour contrôler l'image perçue par le public, et par là même préserver leurs bénéfices, parfois au détriment de quelques individus, de plus en plus aux dépens de la société toute entière. Nulle part ceci n'est plus visible aujourd'hui que dans le domaine de la propriété intellectuelle.

Le grand massacre des droits de propriété intellectuelle

À partir du moment où un texte, un enregistrement, une photo ou un film sont numérisés, la quasi-totalité des droits de propriété intellectuelle qui leur sont rattachés meurent. En effet, comme nous l'avons mentionné plus haut, la copie et la diffusion des données numériques sont incontrôlables et anonymes.

Seul le droit d'être reconnu comme l'auteur persiste dans le monde numérique : la qualité d'auteur se prouve toujours par l'antériorité matérialisée par une copie physique (déposée chez un notaire ou dans une société d'auteurs). Par contre, la possibilité pour les détenteurs des droits (qui sont souvent distincts des auteurs) de gagner de l'argent en contrôlant la distribution ou la reproduction des Suvres disparaît. La révolution numérique induit sur ce point une rupture complète avec le droit existant.

En fait, toute la construction juridique et sociale autour de la propriété intellectuelle n'existe que parce que jusqu'à présent, la copie et la diffusion étaient chères et lourdes à mettre en Suvre. Il est rentable de poursuivre un contrefacteur qui produit et distribue des copies « pirates » d'un CD parce que le résultat de l'enquête sera la saisie de l'usine de duplication, et le démantèlement du réseau de distribution. La perte prévisible pour le contrefacteur est dissuasive, et l'enquête se conclut par une diminution notable du nombre de copies « pirates » en circulation, au bénéfice du détenteur des droits.

Tant que la liberté de la presse n'existait que pour ceux qui possédaient une imprimerie, la notion même de propriété intellectuelle pouvait perdurer. À partir du moment où chacun peut, pour quelques dizaines de francs, diffuser, copier, échanger, modifier tous les contenus numériques disponibles, les lois deviennent obsolètes : quand tout ordinateur peut dupliquer pour un coût quasi-nul, quand l'Internet sert de réseau de distribution, quand personne ne gagne d'argent avec les copies réalisées, quand il est extrêmement difficile d'identifier avec certitude chacun des nombreux individus impliqués, que peut-on faire ?

Face à ce constat, de nombreux Cassandres annoncent la mort de l'art et de la culture, puisqu'on ne peut plus rémunérer les artistes. C'est oublier un peu vite que la propriété intellectuelle est une création récente, et faire bon marché de tous les artistes antérieurs au dix-huitième siècle dont les Suvres, pourtant produites en des temps où la propriété intellectuelle n'existait pas, remplissent les musées et les bibliothèques.

On pourrait aussi rappeler que le système actuel ne rémunère pas vraiment les créateurs, mais plutôt les employés et surtout les patrons des cartels de la distribution. Peu d'écrivains vivent aujourd'hui de leur plume en France, mais rares sont les éditeurs affamés. Le cas des chanteurs à succès est encore plus instructif : comme l'a récemment rappelé la star américaine Courtney Love, l'essentiel des profits réalisés sur la vente des disques revient aux maisons de disques et pas aux artistes, qui ne sont même plus en général propriétaires de leurs Suvres.

Le financement de la création artistique se fera toujours, mais par des méthodes nouvelles ou oubliées : le sponsorat et le mécénat vont refleurir ; le pourboire réhabilitera la représentation (une expérience en direct qui ne peut être numérisée !) ; quelques écrivains deviendront feuilletonistes, genre qui a quand même donné Balzac ; on peut même envisager des méthodes inédites de financement, qu'expérimentent dès aujourd'hui des artistes comme les chanteurs Courtney Love, Prince, David Bowie, ou des écrivains comme Stephen King.

On pourrait même considérer que la décommercialisation prochaine de l'art n'est pas une mauvaise chose, et qu'il n'est pas forcément nécessaire de rémunérer tous les créateurs pour les inciter à créer... Mais ceci ne fait certainement pas les affaires de tous ceux qui gagnent de l'argent avec des droits de propriété intellectuelle.

Aux États-Unis, les « empereurs du contenu » (sociétés de distribution de disques, de livres, de films, détentrices de droits de propriété intellectuelle) constituent un lobby organisé, riche et puissant. Le Congrès américain, complètement dépendant des dons finançant les campagnes électorales, a ainsi été amené au cours des dernières années, à étendre l'ensemble des droits de propriété intellectuelle, à la fois sur ce qu'ils couvrent et sur leur durée de vie. Le résultat est un appauvrissement marqué du domaine public, et une perte nette pour la société dans son ensemble.

Pire encore, des lois pénales ont été adoptées, qui se traduisent par des pouvoirs accrus aux forces de polices, des peines allongées, et une réduction importante de droits traditionnels proches des libertés fondamentales (droit de citer, droit de critiquer, droit d'archiver, droit de prêter). Le renforcement de la propriété intellectuelle conduit à plus de répression, plus de contrôle des citoyens.

Droit et stabilité sociale : les vrais enjeux de la révolution

Les évolutions brutales des techniques peuvent sembler effrayantes ; il serait cependant naïf et illusoire de croire qu'elles détermineront à elles seules la physionomie de nos sociétés futures. Les décisions législatives façonnent notre monde ; le rôle d'arbitrage entre diverses parties de la société revient à l'État et aux organes législatifs, qui doivent définir l'intérêt général.

Il est quasiment inconcevable qu'un système numérique déployé à grande échelle soit parfaitement exempt de dysfonctionnement et parfaitement inattaquable. Quand ces problèmes se présenteront, la question majeure restera : qui, des industriels ou des citoyens utilisateurs, portera le chapeau ? L'attribution des responsabilités financières et pénales pour chacun de ces systèmes, existants ou futurs, est un enjeu majeur dont les résolutions auront une énorme influence sur la structure même de nos sociétés.

Deux exemples largement répandus illustrent la question de la responsabilité financière : dans le cas de la carte bancaire, l'État a tranché par la loi : l'essentiel du coût de la fraude est supporté par les banques exploitantes. Les conséquences des faiblesses du système sont donc assumées par ceux qui peuvent avoir une action correctrice sur celui-ci. Inversement, pour les téléphones portables (ou pour l'accès à l'Internet par le câble), les exploitants industriels ont réussi à faire porter le chapeau financier aux utilisateurs, en rédigeant des contrats de service léonins et abusifs. (On ne peut que constater l'insupportable lenteur des services de l'État chargés de protéger les consommateurs à s'attaquer à ces pratiques.)

Au-delà de la question importante de savoir qui paiera les pots cassés, reste un sujet peu abordé en France jusqu'à présent : qui ira en prison ? Compte tenu de ce qui a été exposé ci-dessus quant au manque de fiabilité intrinsèque de tout ce qui est numérique, on pourrait penser que des données numériques n'auraient aucun caractère de preuve en matière pénale. En France, peu de juges ou d'avocats sont au fait de ces notions (les juristes sont le plus souvent issus des filières littéraires et non scientifiques) ; peu d'experts sont appelés à démonter devant les tribunaux les faiblesses ontologiques des systèmes numériques, et la jurisprudence s'oriente assez mal pour l'instant.

Mais il suffit de quelques procès importants pour changer une jurisprudence. La loi se change moins facilement, et les gouvernants de tous les pays occidentaux rivalisent de rapidité pour promulguer des lois nouvelles traitant du monde numérique. À de rares exceptions près, ces lois sont rédigées par des gens trop âgés, méconnaissant les problèmes, influencés par les lobbies industriels, pressés par des impératifs démagogiques. Souvent, ces lois font fi des réalités les plus évidentes et sont quasiment inapplicables. Parfois, leur application résulte en une très forte diminution des libertés publiques auxquelles nous sommes habitués.

L'incompétence des administrations en matière numérique est effrayante (à de trop rares exceptions près, l'une d'elle étant le dédicataire de ce texte.). Comme l'a écrit John Katz, « tout ceci laisse le citoyen lambda, l'utilisateur principal de la technologie, dans une position insupportable, coincé entre une élite technique qui le dépasse rapidement et une structure de pouvoir ignorante qui répond sans comprendre et promulgue des lois idiotes. » Comme la révolution numérique prend de plus en plus de place dans nos vies, si nos gouvernements persistent à édicter des lois ineptes, l'État et ses services se déconsidèreront complètement. C'est, à terme, la légitimité des structures de la démocratie qui se joue sur ces décisions.

La première crise de ce type est déjà sur nous : comme nous l'avons mentionné plus haut, de nombreuses lois récentes étendent et renforcent la propriété intellectuelle. Ces nouvelles lois instaurent un contrôle accru sur la copie, c'est l'essence même du copyright. Mais dans le monde numérique, la lecture, c'est la copie ! (Pour lire un document disponible sur l'Internet, il faut le répliquer d'ordinateur à ordinateur. Une fois une copie du document parvenue à l'ordinateur du lecteur, plusieurs copies internes sont encore nécessaires avant l'affichage final sur l'écran ou l'impression.) Permettre à certains de contrôler la copie, c'est, très vite, leur donner un droit de regard sur ce que nous serons autorisés à lire.

C'est par le droit à la lecture qu'il est possible de former des citoyens responsables et éclairés. C'est peut-être par un contrôle abusif de la copie que nous commencerons à abandonner ce droit fondamental. Seule la prise de conscience par les citoyens de ce qui se joue sous nos yeux contrera les effets conjugués de la peur, de l'incompétence et des intérêts financiers et politiques, et nous permettra d'éviter un monde futur à mi chemin entre Kafka et Staline.

Source, Biographie, Liens - Canal-U TV - UTLS : Espionnage, piratage, risque informatique et criminalité - Thomas-Xavier MARTIN

OnlyZenTV : Humanitarian News, Ecology, Solidarity, and Personal Development ...
Together We Can Change The World - Youtube OnlyZenTV - Twitter OnlyZenTV - Blogspot OnlyZenTV
L'Actualité de l'Engagement Humanitaire, de l'Ecologie, de la Solidarité et du Développement Personnel ...