Ce que je dis à mes étudiants sur l'utilisation de ChatGPT pour les essais.
L'écriture ressemblait aux concepts typiques de vomissement de mots de 3 heures du matin - les phrases relayant au mieux une compréhension superficielle de ce que nous avions fait ce semestre et l'argument ne répondant que vaguement à l'invite. C'est le genre de papier qui me fait habituellement me demander : cet élève est-il même venu en classe ? Leur ai-je communiqué quoi que ce soit de valeur ?
Sauf qu'il n'y avait aucune indication évidente que c'était le produit d'une nuit blanche : pas d'erreurs de grammaire, de fautes d'orthographe ou de départs dans les exemples superflus qui semblent profonds aux étudiants tard dans la nuit mais qui sonnent définitivement comme le produit d'un bong frappé à la lumière. de jour. Peut-être, juste avant la fin du semestre, voyais-je mon tout premier essai d'étudiant écrit par ChatGPT ?
J'ai mis une partie du texte dans l'un des nouveaux détecteurs d'écriture de l'IA. Mais avant de passer le test, le ridicule, et peut-être le désespoir, de ce que j'étais sur le point de faire m'est venu à l'esprit : j'utiliserais une machine pour voir si une autre machine avait écrit une dissertation d'étudiant. J'ai réalisé que je vis maintenant dans un test de Turing - en ce que moi, l'humain, ne peux plus être complètement sûr si je lis le travail d'un autre humain ou une réponse copiée-collée produite par l'IA générative
Au semestre d'automne, je m'inquiétais des essais achetés sur Internet - difficiles à contrôler, mais généralement si hors sujet que les étudiants réussissent mal de toute façon. Semestre de printemps, les règles du jeu ont complètement changé : à la fin du trimestre, je dois me méfier du fait qu'une machine ait écrit les devoirs de mes étudiants à leur place.
Après avoir exécuté le test (10,1 % écrit par l'homme, selon le programme), j'ai posé la tête sur la table de la cuisine, submergé par l'assaut du changement technologique qui semble avoir progressé à la vitesse de la lumière depuis janvier : IA générative pour le texte, les images , et l'art (et dans une moindre mesure, la musique et la vidéo), tout cela jette un doute supplémentaire sur ce à quoi nous pouvons faire confiance et sur ce qui est réel.
Pour ma santé mentale, j'avais besoin de savoir si mon détecteur BS interne et le détecteur GPT automatisé avaient raison - que l'essai était bien l'œuvre de ChatGPT. Dans un e-mail à l'étudiant, je leur ai donné la possibilité de divulguer s'ils avaient utilisé l'outil d'IA, en promettant qu'il n'y aurait pas de pénalité de note ou de répercussion éthique pour ce qui était, au mieux, un essai B - après tout, je n'avais pas l'a explicitement refusé dans le devoir. Ils avaient; et comme pour la plupart des efforts de tricherie, c'était parce qu'ils se sentaient fatigués, stressés et désespérés.
Techniquement, j'avais gagné mon premier face-à-face (connu) contre une machine. Mais je ne me sentais pas victorieux.
J'étudie et enseigne les médias, la politique et la technologie, ce qui signifie qu'aider les gens à comprendre le potentiel perturbateur des nouvelles technologies médiatiques pour la vie civique est littéralement mon travail.
Cela signifie également que ce semestre a été l'un des plus difficiles sur le plan existentiel de mes 17 années en classe - et j'ai enseigné à DC pendant les élections de 2016 et les premières années de la présidence Trump et sur Zoom au début de la pandémie (qui taxé chaque molécule de mon cerveau TDAH).
Cette année, j'ai été chargé non seulement de jouer à ChatGPT whack-a-mole, mais je me suis également retrouvé à essayer d'accepter ce qui pourrait être le changement technologique le plus important depuis l'introduction du smartphone. Au-delà des mécaniques de classe, je trouve plus urgent que jamais d'aider mes élèves (et moi-même) à trouver le langage pour parler des changements que nous vivons et à développer les questions que nous devons nous poser pour donner du sens à tout cela.
Le potentiel perturbateur de l'IA générative m'a consumé. Je n'étais pas seul, bien sûr : The Atlantic a proclamé la mort de l'essai universitaire ; mon université a créé une classe éphémère pour les étudiants et les professeurs interdisciplinaires afin d'explorer l'éthique de l'IA et a organisé une série de webinaires et de réunions pour aider les professeurs à comprendre le nouveau léviathan auquel nous étions soudainement confrontés.
Pendant ce temps, dans chacun de mes trois cours, j'ai été obsédé par l'enseignement sur le désordre de l'information, ou les nombreuses façons dont notre environnement informatique est pollué, des deepfakes aux clickbait en passant par les nouvelles hyperpartisanes. Et bien que je puisse expliquer les processus et les incitations à créer et à consommer du contenu trompeur, il y a eu des moments où je me suis retrouvé complètement submergé par l'ampleur et l'empressement avec lesquels GPT provoquait déjà le chaos.
"Je n'ai rien", ai-je dit à mes étudiants en réponse aux fausses photos d'arrestation de Trump qui avaient été créées par un journaliste d'un média d'investigation très respecté (qui, selon ses mots, "était juste en train de rigoler"). Nous avons tracé la chronologie et parlé de qui pourrait être vulnérable à la désinformation, mais la réalité avait fourni un moment d'enseignement qui semblait complètement surréaliste - qui savait ce qui allait suivre ? (J'enseigne dans une université catholique, donc au moins la photo du pape dans une doudoune a fourni un peu plus de légèreté.)
Pourtant, mes étudiants étaient déterminés à sur-mystifier inutilement le trouble de l'information, l'économie de l'attention et la Big Tech plus généralement, donnant ainsi leur propre agence pour comprendre ce qui se passe. "L'algorithme" et "l'IA" sont devenus des monstres dans mes cours : des mots passe-partout qui sonnent à la fois la fin des carrières et résument l'anxiété à propos de tout, de l'obtention du diplôme et de la recherche d'emploi aux attaques contre les droits des LGBTQ et l'avortement.
Quand j'entends mes étudiants discuter de ces nouveaux épouvantails de la technologie, cela me rappelle les erreurs que nous avons commises en critiquant les médias d'information. Lorsque les mots eux-mêmes ont tant de sens et tant d'interprétations possibles selon l'orateur, nous abandonnons inutilement notre capacité à comprendre la précision et la nuance dont nous avons besoin pour diagnostiquer les points d'intervention et pour séparer notre peur existentielle des menaces plus immédiates à la justice sociale. , l'environnement et la démocratie.
Considérez la multiplicité des significations des "fausses nouvelles" - des mèmes en ligne et des politiciens discréditant le journalisme factuel à la satire et aux émissions de fin de soirée, entre autres. Il devient presque impossible de dire exactement qui appelle quelles nouvelles fausses et encore plus difficile d'exiger des comptes.
De plus, l'effondrement de grandes catégories ou industries en entités uniques et unifiées exagère leur capacité à influencer le public. La plupart des Américains diront collectivement qu'ils ne font pas confiance aux "médias" - imaginés comme une cabale d'acteurs ténébreux manipulant le public par une sorte de tentative coordonnée de contrôle de l'esprit.
Mais quelques questions de suivi finiront par amener les gens à fournir des exceptions pour les médias en qui ils ont confiance, qu'il s'agisse de Fox, du New York Times ou d'une chaîne de conspiration bizarre sur YouTube. Les médias ne sont pas un monolithe, ils sont façonnés par les désirs, les décisions et les questions des personnes qui les consomment.
De la même manière, en ce qui concerne l'IA générative, si nous levons la main et pleurons la fin de la dissertation universitaire, la fin du métier d'avocat et même la fin possible de l'humanité, nous cédons notre pouvoir de dicter l'avenir potentiel de la technologie à les voix les plus puissantes y investissent.
En classe ce semestre, un étudiant a dirigé une présentation qui a montré les capacités d'astuce de ChatGPT : il a conçu un site Web rudimentaire et nous a raconté une mauvaise blague : pourquoi la tomate a-t-elle rougi ? Il a vu la vinaigrette. Le présentateur étudiant n'a pas souligné que ChatGPT pouvait également se tromper, et les étudiants sont partis ce jour-là en marmonnant : "Ça y est, nous n'avons plus de travail."
Les persuader du contraire a été extrêmement difficile, mais pour mes étudiants et pour le public, le moyen le plus rapide de se sentir désespéré face à un changement technologique apparemment irrépressible est de décider qu'il est tout-puissant et trop compliqué à comprendre pour une personne ordinaire. Ce désespoir paralyse la critique publique, permettant aux entreprises technologiques de continuer sans contrôle.
Il y a une section sur le programme de ma classe Surviving Social Media intitulée "What Hath God Wrought", après le premier message télégraphique jamais envoyé - une question pertinente qui résiste à l'épreuve du temps et qui reflète l'incapacité de notre langage et de notre imagination actuels à comprendre comment les progrès technologiques pourraient façonner l'avenir.
Dans cette section de notre cours, les étudiants sont aux prises avec les inconnues de la crypto-monnaie, du biohacking, de l'amour des robots et de la façon dont notre vie numérique se poursuit après la fin de notre vie mortelle. Mes étudiants de premier cycle sont capables de définir les questions que ces avancées inspirent, d'évaluer le paysage actuel et d'identifier les futurs probables au niveau individuel et social, sans être des savants technologiques ou des informaticiens.
C'est ce que j'essayais d'atteindre avec le titre de la section : Le fait que le premier message télégraphique de Samuel FB Morse de 1844, lui-même un riff sur un passage de la Bible, puisse toujours poser une question pertinente devrait nous donner un peu d'espoir que nous avons réellement le vocabulaire pour reprendre l'agence sur un monde qui semble de plus en plus proche de l'annihilation de type Terminator que jamais auparavant. (Dans notre devoir final, j'ai spécifiquement indiqué aux étudiants que l'affichage d'une image PowerPoint de l'holocauste nucléaire n'était pas une réponse acceptable à l'invite sur les pires scénarios.)
Ce que j'espère avoir montré à mes étudiants, c'est que lorsque nous décomposons les termes génériques qui rendent si impossible la capture de ce moment - "IA", "algorithme", "Big Tech" - il devient possible de voir comment les mêmes questions et les points de départ des critiques technologiques précédentes nous ont bien préparés pour ce moment précis.
On peut commencer par quelques bases : de quel type d'intelligence artificielle parlez-vous et quelle fonction ou utilisation spécifique vous inquiète ? Qui est prêt à gagner de l'argent avec ce fork particulier dans la technologie ? Qui a la capacité de mettre en œuvre la réglementation ou de favoriser un développement ultérieur ?
Ou peut-être plus simplement, nous ferions bien de prendre en compte ce que le futuriste et éthicien des technologies Jaron Lanier a récemment souligné dans le New Yorker : "La position la plus pragmatique est de penser à l'IA comme un outil, pas comme une créature." Lorsque nous nous souvenons de cela - que nous avons créé ces technologies en tant qu'outils - nous sommes en mesure de nous rappeler que nous avons la capacité de façonner leur utilisation.
Concrètement, je traite GPT comme une calculatrice : la plupart d'entre nous utilisaient des calculatrices en cours de mathématiques et n'obtenions toujours pas de notes parfaites. Après avoir découvert mon premier essai ChatGPT, j'ai décidé qu'à l'avenir, les étudiants pouvaient utiliser l'IA générative pour les devoirs, à condition qu'ils divulguent comment et pourquoi. J'espère que cela conduira à moins me cogner la tête contre la table de la cuisine – et, au mieux, ce sera son propre genre de leçon.
Future Tense est un partenariat entre Slate, New America et Arizona State University qui examine les technologies émergentes, les politiques publiques et la société.