それで、ChatGPT で作成された課題が既に渡されていることをきちんと知った後、先週、Twitter での会話をむしろかき立てました。 ご存じないかもしれませんが、ChatGPT は指定されたテキストを作成できる「AI」チャットボットです。 これは、この種の最も洗練されたボットの 1 つですが、考案されており、膨大な量の書き込みに精通しています (練習プロセスにかなりの人が参加していることに加えて、私たちが支援することの 1 つです)。 そして、その出現は何百もの波を作り、少しでも驚きを引き起こしました.必要以上に減らない – 基本的に大学の宿題をするのは無意味です. この理由でそれを教えるのは少し距離があります. 機能的には、すべての大学の名誉規定は、タスクを終了する際に「無許可の教唆または支援」を 1 つ制限しています。 チャットボットにタスク (またはそのタスクの一部) を作成してもらう ことは、明らかにその定義を満たしています。 その結果、学校のエッセイで ChatGPT を使用することは、明らかに許可されていない外部の教唆、つまり「不正行為」であると主張することになります。 ほとんどの大学では、この種の不正行為は、授業の失敗や退学につながる可能性のある犯罪です。 それにもかかわらず、紙が非常にきちんとしている可能性があることを心配していますが、大学から放り出されたり、お金が無駄になったり、水準器を使用したりしないことは、今では価値がないように思われます。 教わります。 チートしないでください。
それは私がいくつかの基本的な問題と交差しようとしているという話です: まず、ChatGPT とは
人々が仲介しているように見えるものとは異なり、それはある程度の距離です。 2d、なぜ私はその機能がエッセイの執筆においてわずかな理由を提供するのか – または、より適切には、なぜ私はそれを仲介する人々がエッセイの執筆の誤解を「解決」するのかを仲介する理由. 第三に、なぜ私はまったく同じ機能が私の教職員室でほとんど役に立たないのか、より適切には、仲介するアメリカ人が学習室で問題を解決することを仲介する理由は、主に私が指示していることと手順を誤解しています.
今、私は最初からこだわりたいと思っていますが、私は今、この技術が実行可能なものではないことを発表していません. ChatGPT が経済的に実行可能であるというジレンマの中で 事実 を検討したいと思いますが、私は将来の機械発見について決して発表していません。主要な言語のファッションであろうと、さまざまな製品であろうと、ほとんどの製品は貴重なものではありません(このテクノロジーのブースターが継続的に関与する目的を達成したとしても)。彼らが現在達成している分野は、今では知覚されない)。 製品を発見する機械は、主に、すでに貴重であり、基本的には事実に基づいたアイデアで教えています。 しかし、私は、ChatGPT のブースタリズムの規模が、Dan Olsen (暗号通貨についてコメントしている) が
その道のどちらの考えにも当てはまるので、マシンが発見したニュートラルな機能が次の日にもたらす可能性があると主張するつもりはありません。 これは間違いなく非常に効率的な技術であり、長期的にどのような技術が実現される可能性が高いかを評価する準備ができていません. しかし、私は ChatGPT の監視機能を 実際に 評価し、それらの機能が維持する意味に焦点を当てることができます 。私が感じる講義室の雰囲気の中で。 どの方法論なのか – そして私はこれにこだわる必要があります – 最新の設計における ChatGPT の機能についての投稿はこちらです。 今では、長期的に存在する可能性があるツールや AI を発見する別のマシンではありません 。 そして、その文脈では、私が今見ていることは、このテクノロジーが教育体験を強化しようとしていると私を説得するものではありません。 ある程度の距離で破壊的である場合、それはほぼ完全に否定的に見えるため、それでも破壊は人が仲介できるほど深刻ではありません.
私は今ではチャットボットではありませんが、存在し続けるためには理論的には食べる必要がある生きている呼吸する人間として、あなたがたまたま自分が何であるかを気になったら、思い出さなければなりません。ここを読んで、私が書いたものを共有して (私のターゲット市場については口頭でのメモに依存しているため)、
一体ChatGPTです?
しかし、ChatGPTとは何か、それが何の距離であるかについて議論することで、私たちは立ち上げようとしています今は違います; この議論で最も価値があるのは、実際には後者の距離です。 洗練された部分は、ChatGPT とチャットボットが、私たち全員が維持している本当に影響力のある人間の認知バイアスを教えるように設計されていることです: 人としてではなく、派手な人としてではなく、今では減少していない問題を覗き見する傾向
ChatGPTや他のチャットボットがその傾向を悪用する手順は、彼らが空想的な心、空想的な人間の心であると偽装することです. でも それはどこかで最も単純な偽物です 今はそこに心はありません であり、ChatGPT とは何かを理解する上で最も価値のあることです (したがって、ChatGPT の素晴らしい距離とは何か)。 今では、このプログラムを作成した高度なコンピューター サイエンスを認識しているとは言えません (確かに、マシンがパッケージを発見するため、作成者でさえ、プログラムが結果を「どのように」もたらすかを真に理解することはほとんどできません)。それが達成できることと達成できないことの感覚を導き出すために、その機能の手順を参照して十分に議論されてきました。 さらに、その障害 (その 教育 で実証されているため、非専門家による尋問のために用意されています) は、その機能を示しています.
ChatGPT はチャットボット (人間の会話を模倣するように設計されたプログラム) であり、実質的な言語マネキン (どの単語が出現し、何に関連するかの確率の実質的なマネキン) を教えます。 その実質的な言語マネキンは、有害な実質的な吃音素材 ( 約 570 GB、報告によると ) OpenAI が何が変わったのか、そして今になって何が変わったのかについて透明性を保っていることを私が受け取れないとしても、その有害な練習ではありません (その練習記録データの一部がないと仮定しても)はsubmit-2021、そのようです)。 この方法は、マネキンに指示と訓練を与えた人間のトレーナーによって、当時は知識のあるものになりました
それはマイルです マスクを表示することは必須ですが、ここでの練習計画の中で収集され、洗練されているガイドラインは何ですか: それは単語がどのように使われるかについての知識だけです。 ごとに表示されます。 つまり、単語がどれだけ絶え間なく一緒に発生するか、どれだけ密接に、どのような相対的な位置にあるかなどです。 現在、私たちが達成したように、定義、またはそれらの単語とそれらの正しい世界の指示対象との間の関連付けを保存することはなく、実践トピックのトピックの理想的なコピーを保存することもありません。今後の参考のために。 現在、ChatGPT は、自由に書き留める教育的なライブラリの上位に位置することはありません。 ライブラリ内のすべての本をすぐに読み、そのライブラリ内の単語間の統計的関係を抽出し、ライブラリを焼きました.
ChatGPT は、これらの単語または特定の問題の 論理的 相関関係を認識しなくなりました言葉(記号として)が意味すること(それらの「指示対象」)。 水があなたをしっとりさせることを今は知りません。最も単純なことに、「水」と「しっとり」が一緒に現れる傾向があり、人間は今ではそうではない原因のために「水があなたをしっとりさせます」(その関連で) を最も絶え間なく表現しています。
その意味で、ChatGPTの最大の制限は、しない
ことです。 他のことについて他のことを知っている; 単語の定義やその意味の意味、正しい世界のオブジェクトやそれらについて参照する事実への接続を保存していません。 ChatGPT は、基本的に、カラフルなこと以外はまったくできません。 非常に多くの人々が理解していることは、彼らが ChatGPT に問い合わせた後、おそらくウィキペディアで関連する知識をチェックすることによって、私たちが行う手順を「調査」するということです。 しかし、ChatGPT はこの意味での「知識」を保持していません。 個別の事実はありません。 これを 1 つの手順に位置づけるために、ChatGPT は現在、「第一次世界大戦が 1914 年に始まった」ことを知りませんし、知ることもできません。 それが知っていることは、「第一次世界大戦」「1914」と「起源」(およびその同義語) が、その実践トピックのトピックに一緒に現れる傾向があるということです。 「第一次世界大戦はいつ始まったのですか?」と尋ねたら、 それはそれを認めます。 しかし、言語マネキンには地域がないため、正確にほぼ同じ自己信念で、完全に無意味な、または露骨にスキャンダラスな回答を間違いなく与えることができます。 私たちが理解する知識については; 単語が実際のトピックのトピックにどのように現れるかの統計的関係のマネキンを持っているだけです. 人工幻覚
ここでマスクを表示する必要があります。ここでの反論は、単語を関連付けることで、ChatGPT は問題を「知る」ことができるということです。ある意味では、それらの関連付けをハイパーリンクするためです。 しかし、ここには最も重要な違いがいくつかあります。 まず、人間の心はこれらの関連付けの信頼性を評価します。問題が要求されたときに、どのように絶え間なく承認が心に浮かびますか?調べる? 主張するのは無意味ですが、そのプロセスの一部は、私たちが引き出す心理的関連性が、それらが描く特定の世界の現実に向かって「チェック」されるということです. 賞賛の言葉で言えば、言葉は正しい権利の問題の シンボル にすぎません (彼らの ‘ referents‘ – それらが参照する問題)、したがって、単語の実際の事実率は、参照先の特定の場所に対して非常にきちんとチェックできます。 ほとんどの人にとって、この接続は非常に安全です。 私が「ウールブランケット」と表現すると、あなたの心はただ音符の関連付けをするだけでなく、正しい ウールブランケットの思い出を思い起こさせる可能性が高いです。ちらっと見たり、接触したり、においをかいだり。 ChatGPT にはこの機能がありません。 すべて は、指示対象のみを取り除いた単語間の統計的関係です。 このようにして、正しくない科学現象の説明を作成し、現在存在しない書籍の説明を装飾し、問題の引用を要求された場合は、引用する作品を作成します 何もないためこれらの問題のうち、ChatGPT に対する権利は、既存の問題の正当性.
それが認識している距離のすべて、認識している距離のすべては、単語がどのように一緒に表示されるかの統計的関係であり、その応答によって洗練されます。人間のトレーナーがぶら下がっています。 したがって、ChatGPT は別のことについて他に 1 つのことを知らない、またはより適切には、それについて書くように要求された距離のトピックについて他に 1 つのことを知ることができないというアドバイス.
そのすべてChatGPT が何をしているのかを詳しく説明したり、表現したり、エッセイを書いたりするのは極端です。 それは今、トピックと一緒に取られず、参考文献を調べ、最高の承認を考え出し、その承認のための証拠を動員します. 代わりに、教育的なかなりの単語の山を取り、おそらく指示された単語に関連付けられている単語を選択し、それらの単語を関連関係内にまとめます(ただし、現在は主に 論理的 の関係ではなく、彼らが最も絶え間なく維持している、「より良い」結果を生み出すために、以前の実践プロセスによって修正された 。 テクニカル ライターの Ted Chiang が設定したように、 停止結果は単に「非常に損失の多い」(つまり、今ではあまり忠実ではない)その実践的なプレゼントの複製であり、他の何かが斬新であるか、または基本的なオブジェクトまたはアイデアから機能する権利に主に基づいているというジレンマにあります . しかし、それはチャットボットとは少し離れているため、完璧なスペルと文法で、これらの単語を親切に大量に処理し、トピック システムを指導することはありません (多かれ少なかれ)指示された人が求めます。 しかし、それらの言葉が何を意味するのかは間違いなくわかりません。 確かにチャットボットから来ていますが、ある意味では何の意味もありません.私たちが考えている特定の人から何も考えずにぶら下がっていることは、ChatGPTが現在達成できない問題であり、電気缶切りができないのと同じ手順でできないことです。さらに携帯電話としても機能します。 これらの機能は、ChatGPT の最新のイテレーションの構築の外部にあるだけでなく、ChatGPT を作成した実践手順が教えるプロセスの外部にもありません。 缶切り内の段階的な機能強化により、今では携帯電話にはなりません。 携帯電話はまったく異なる種類のマシンです。 したがって、「幻覚」プロジェクトが必然的に解決されるように見えるという一部の人々の自己信念は、私には時期尚早に見えます. それはきちんと中立的に解決されるだろうが、それは間違いなく今ではきちんと中立的ではない。 そのためには、作成されるよりも早く、まったく新しい種類のマシンの登場が必要になる可能性があります。 その不測の事態を考慮せずに受け入れることはできません。 現在、私たちが知っていることは、覚えておく準備ができていることだけではありません(たとえそれがきちんとニュートラルである可能性が最も高いと仮定しても!)。 それは間違いなく今ではそのメンテナンスで起こらないでしょう.
一体エッセイですか?
それが ChatGPT のすることです: 主に指示に基づいて、それらの単語が統計的な可能性に主に基づいて編成された、その練習トピックのトピックに含まれる単語を含む承認をまとめます。一緒に表示され、それらが指示されたレベルに関連付けられます (非常に高度な言語マネキンによって処理されます)。 このように、練習中に見た単語の集合体を奇妙に見せ、人間のトレーナーが非常にランク付けしたモデルで、かなりの量の単語から単語を組み立てます。 そして、ChatGPT に実現してほしいのは、まさに次のことだけである場合: ラントは、トピックに大まかに関連する単語の束を 似ている 言葉の代用をランダムに組み立てます。あなたのためにそれを達成します。 なぜあなたがそれを実現したいのか今はわかりませんが、それはそれが達成する最も単純なことです.
しかし、ChatGPT はエッセイを書くことはできますか?
これはエッセイ、特に「大学のエッセイ」を危険にさらすか、陳腐化させるとさえ言われています。エッセイの理由は。 現在、エッセイの定義は、特に長さの場合は、漠然としています。 エッセイは本よりも短く、メモよりも長いが、これらもあいまいに定義されている. 冷静に、貴重な定義を維持するための手順を受け取ります:
エッセイは、argument – つまり、エッセイ自体のすぐ外側にある 1 つのことについての真実を主張します – 議論自体の考えを伝えることによって (テーゼ) と、その議論を読者 に平準化するために選択された 証拠 の組み立て。 したがって、対話はエッセイを書く 断片 ですが、今では最高の作品ではなく、そもそも最大の作品でもありません。 確かに、口頭で代用する側面は、使い古されたエッセイとはまったく異なる種類でニュートラルな進歩を遂げる可能性があります。 ビデオエッセイまたは関連エッセイを検討してください。どちらも、代用言語のデザインを根本的に変更したままですが、重要な部分(集められた証拠によって裏付けられた1つのことについての真実を主張する議論)が同じままであるため、エッセイを続けています。
エッセイを書くことは、このように肯定的な側面のステップの置き換えであり、言語による代用は単に最終的なものです。 理想的には、エッセイ ライターは最初に自分のトピックに気づき、次にそのトピックについて何らかの分析的結論を導き出し、さまざまな証拠の間の論理的なつながりを表現するモデルで証拠を整理し、最終的に読者にそれを伝えるよりも早く、
ChatGPT は、最も価値のある 2 つのステップを完全に実行することはできません (それが中立的 である可能性が最も高いと仮定しても
それらの両方を実現する) と 3 番目に無能; その機能は最終段階にあるだけです (そして、遅くともそこにさえ、きちんと知識のある人間のライターにとっては最も不吉です)
トピックを見て、きちんと知られている ChatGPT が今になりました。研究はそれほど素晴らしいものではないので、Ted Chiang の言い回しを何度も借りることで得られる最高のものは、他人の分析の「損失のある」複製を提供することであり、その分析が ChatGPT の実践的なプレゼンテーションへの手順につまずいた場合に最も簡単です。 . ChatGPTの実践的な話題のトピックには、作品内部に貴重な知識が含まれていても、実際には認識
されません。 これらの問題は、最も簡単に再現することができるので、それらが現在達成されている場合に、明示的に 必要な結論をできるだけ多くの言葉で計画するのではなく、 ChatGPT では両方を達成することはできません。 これを指摘するために、ChatGPT にほぼ自明な分析の質問をしてみましょう。アイザックの帝国の限界?」

あなたは両方の本について何も知らないが、この認識はほとんど貴重に聞こえる (そうではない)。 ここで、些細な 分析ジョブを示します。 Google に「帝国評価の限界」と入力し、ペイウォールのない最初の結果をクリックするだけです (これは 1990 年の David Potter の本の評価
を読んだ アイザックの本は意図的なものであり、Luttwak の本に対して 反論 していることをかなり認めていることをほぼ直接的に特定している、またはポッターが言うように、「ベン アイザックの 帝国の限界 は、ルトヴァックに斬新で気骨のあるプロジェクトを提示します。」 単語とその意味を理解する人間は、おそらく質問を直接承認することができますが、そうでないChatGPTはできません。両方の本を説明してから、「いくつかのアイデアで交差している」と不器用に発表することによって。 知識 ChatGPT は、実際のプレゼンテーションで明らかにしたかった (または、両方の本の説明を維持して、損失のあるコピーを取得することはありません) が、間違いなく欠けています。知識 を知識 として (統計的に相関した一連の単語としてのジレンマで) 認識するスキル。 結果として、それは事実に基づく結論を計画することができず、説得力のある、しかし誤った手順で質問について語ります. それは、純粋な 読解力の質問に変わりました。これは、実践上のジレンマ内の 1 つのことが既に 承認について話していることを認識するだけで解決されます。 と コピー を行っていますが、ChatGPT はそれについても驚くべきことではありませんでした。 関連する単語を認識して取得する機能がありません。 これは、Google が ChatGPT よりもはるかに優れた分析ツールであるという、決して際立った困難の例ではありません。なぜなら、Google は、あなたが見ているという認識を維持できるように、あなたをどの領域に誘導するかを認識するために、あなたの読解力に頼ることができるからです.
分析と観察はアウトです。 分析はどうですか? 事実上、たまたまフォローしていた可能性がある場合は、ChatGPT もそれを行うことができないことに気付くでしょう。 それが達成することは、見える素晴らしい分析を1つ受け取ることです(おそらく中立であると仮定しても、今では分析ではないか、非常にきれいである可能性が最も高いでしょう)悪意のある分析) を作成し、それを (損失のある設計で) 再現します。 しかし、研究のレベルは、これまで考えられていなかった結論を指摘するために、新しい認識を作成する準備ができていることです。 特定のプロジェクトについて、または同様に重要なことに、最初に遭遇した最も簡単なトピックの結論を導き出すことが重要です。 ChatGPT は、既存の 文章をリミックスするだけではちっぽけで、両方を達成することはできません。今では少しも貴重ではありません。 総じて、人々はエッセイを望んでいるとき、実際には エッセイを望んでいません。 彼らが読んでいるエッセイは、分析と証拠である彼らが実際に望んでいるもののもう1つのコンテナです。 この意味でのエッセイは、アイデアを設定するメモボックスであり、そのアイデアをより特定の人に渡す手順を受け取ります。 しかし、ChatGPT は好評のアイデアを 維持することはできません 。 それは、もう一人の特定の人がどこかで より良い 既に実行した書き込みを最も単純にコピーするだけです。 この意味でのChatGPTは十分に空想的です.ある日、Amazonからボックスを絶え間なく入手し、それを入手することに非常に喜んでいるように見えることに気づいた、ちょっとした馬鹿げた隣人なら、は、あなたの私邸に空の Amazon ビンを継続的に注文することで、あなたの願望を実現することにしました 。 失恋した仲間は、それが箱の中の もの に変わったことに今は気づきません。この場合、アイデア (好評の観察、分析、証拠) エッセイ内 – あなたが間違いなく欲しかったもの. ChatGPT は、あなたに提供するアイデアを維持しません (それが別の特定の人のアイデアを完全に台無しにしたとしても) が、間違いなく、非常に OK なビンの束を関連付けることができます.
では、ChatGPT はエッセイを書くことができません。 エッセイを 模倣 しますが、エッセイを提供するイニシアチブには距離があるため、適切な指導率 (人気のある信念と分析)、さまざまな文章の不吉なコピーを作成するのは簡単です. 一部のジャーナリストを含むかなりの数の人々が、ChatGPT はエッセイを書くことができる と考えているということは、彼らがエッセイとは何かについて貧弱な考えを持っていることを私に示唆しています は であり、これを最も単純に、スタートアップのためにアイデアがたどり着く箱としてのジレンマにある「吃音素材」と見なしたり、ChatGPT が出力するものを十分に綿密に精査していない.
今、その前の類推で、オンラインのボックスセラーがあります: 主に今手に入れている小売店は、エッセイ内のアイデアを気にせず、単に欲しいだけです.クリックを生成するためにスローするテキストスタッター素材のガジェット。 この流行に偏りのないプロの出版物はほとんどありません。そのため、編集者の仕事は、あなたのエッセイが実際の価値の共有を信じているかどうかを特定することであり、そうである場合は、記録データを最高のプレゼンテーションに誘導することです。信念(それが改善プロセスです)。 しかし、主に事実に基づいて、あいまいに関連付けられたテキストの吃音素材を大量に提供することを主な目的としている多くの吃音素材工場がオンラインにあります。 これらの吃音素材工場の場合、ChatGPT は間違いなく数百のレートを持っていますが、それらの吃音素材工場は、パトロンである私たちにはほとんどレートを提供しません。 そこから除外すると、人々が ファイルが検索エンジンの品質を低下させている理由 、彼らが実際に密集しているように、貴重な吃音資料。 ChatGPT が意図的な公式文書のみを作成する能力を排除しようとしています。 おそらく、製造システムによってプッシュされる事実文書や企業文書の割合が大幅に減少するだろうと指示されていると聞いたことがあります。 また、コードを作成する知識があると指示されていますが、現在のところ、それが生成するコードの多くは事実に基づいているように見えますが、現在はうまく機能していません。 とはいえ、そういう類の問題は書いていないので、質問への指示はできません。 ChatGPTは非常に悪質なエラーを導き出す可能性があり、それらのエラーを検出する手順がないため、非常にリスクの高い事実または企業文書は、ChatGPTの揮発性の教えを空想するように見えるため、おそらく苦悩する可能性があります. ChatGPT は事実に基づいたエッセイを書くことはできませんが、極悪非道なエッセイはあなたの時間を無駄にします。 悪意のある契約は組織を数百万と評価することができ、悪意のあるコードの 1 行がプログラム全体を粉砕する可能性があります (または、事実上のジレンマが発生して統合に失敗し、どちらの場合もスキャンダラスな問題を解決しようと何時間にもわたる悪意のあるプログラムを台無しにする可能性があります)。 .
しかしエッセイの核心は? このChatGPTは到達できません。 そして重要なことは、製品の反復的な機能強化を必要とするだけのスキルではなくなったことです。 ChatGPT は人気のあるエッセイを 間違った ことができますが、そのエッセイを偽造することから、実際に人気のある信念を書くことへのジャンプは間違いなくそれは、特定の世界を観察し、それに関する事実を調査し、結論に到達するという、まったく異なるプログラムを必要とするように見えます.
一体、教育エッセイは何のため?部屋。 そしてここで、以前の異議の中で、確かに破壊を達成します。 大学の部屋のエッセイは、すべての部分にもかかわらず、好評であるはずはありません。 インストラクターは定期的にクラス全体に同じトピックに関するエッセイを書くように割り当てており、まったく同じエッセイの万華鏡を作成し、同じ情報源を利用しています。 さらに、教職員室のエッセイは、ChatGPT の練習用プレゼントで十分な存在感を維持している、大まかに「ウィキペディアで悪名高い」人々や作品に関するものになりがちで、プログラムが実行可能な応答をまとめる準備ができています (静かにたくさんの質問をすることによって)。異なるそのようなエッセイをブレンダーに入れ、停止結果を配ります。引用がない場合、盗作として認識される可能性があるプロセスです)。 簡単に言えば、多くの学生は、多くの学生が自分よりも早く書いたエッセイを書くことを絶え間なく要求されます。 そのため、ChatGPT が大学のエッセイを「殺した」。 そして確かに、この計画に関する Twitter の議論の中での私の経験では、ChatGPT が私の教職員室を混乱させるために 行く になったという議論が頻繁に行われました。
これはどちらも、大学のエッセイが何であるかを誤解しています の学習室 内での混乱の役割。 最も価値のある質問から始めましょう: (学校教育のどの段階でも) に対して の指導エッセイは何ですか? これは必須の質問であり、私たちがどのように学生を教育するかという固定されたプロジェクトから生じる質問です。 ‘) 学生に。 それは、講師が主に、自分が何を割り当てているのか、どのようなスキルを指導することになっているのかについて、教化的な信念を設定し続けている場合でも、恣意的に感じる多くの割り当てを無視する傾向があります. それでは、なぜ私たちがエッセイを掲載するのか、それらの課題が何を実行することになっているのか、そしてなぜ ChatGPT がその分野で提示するのが少ないのかに焦点を当てましょう.
講義室で行うエッセイ課題として、私が目指している問題が 3 つあります。 最初の、そして潜在的に最も価値の低い方法は、学生に古代のトピックまたはアイデアのペアを仲介するように誘導することです。これは、学生が(理論的には)それについて書くことができるようにこれを達成する必要があるためです。 私の計画では、「教育的」エッセイ(現在では理想的な用語ではありません)としての課題に絶えず焦点を当てています。ここで、タスクは全体として「鉢植えの」エッセイ(学生に渡される事前に選択された情報源を含む短いエッセイ、逆) 「分析」エッセイの) – 学生がその質問の割合について発言する質問を熟考するようにすることになっています. 1 つの例は、私が最も絶え間なく教えているように指示されたエッセイです。 これは、このタイトルを指導するための健全な基盤ですか?」 明らかに、私はここの生徒たちにアレクサンダーについての 1 つのことを理解してもらいたいと思っています。 何百人もの人々を効率的に殺害し、残っているものを管理することに失敗することは、偉大さと見なされますか? エッセイを書くことは、彼らに質問を熟考させる. その率は、彼らが実際に ChatGPT に別のエッセイをコピーさせた場合に明らかに失われます. 私が自分の道のトピックのトピックを仲介していると主張するのは無意味ですが、実際には、ライフスタイルの中で巨大なアレキサンダーの詳細を記憶から購入する準備ができている学生はほとんどいません。 彼らは、私が彼らに与えた膨大な知識の枠組みと分析と分析のスキルで自信を持って彼に現れる準備ができており、これらと同じ結論に到達する準備ができています.
2 つ目の目的と重要な中心点は、学者がエッセイを書くためのアイデアを実践することです 。 私は自分のシステムのこの側面を最近より発言力のあるものにし、割り当てを、彼らが教える特定の世界のライティングの種類により近づけるようにしました. したがって、クラシック 3 ~ 5 の Web サイト ペーパーは c に変わります。 1000 ノートの中間部分 (印刷された e ニュースレターよりも多くの引用が必要になると仮定しても)、その種類の紙は 700 ~ 800 ノートの論説に変わります。ここでの前提は、学習室の外でこの地球上に存在する正しい問題を書く練習をしているということを、より明確に生徒に知らせることです。 それが話されましたが、何百人もの学生がおそらく中立的なシナリオを思い出すことができ、論説や中間部分、または短いスピーチを書きたいと考えていますが、彼らの山は大学を卒業した後、他の正式なエッセイを書くことはありません.
したがって、私がコーチングしようとしている最後の最も価値のあることは、エッセイのデザインや吃音の素材ではなく、基本的なスキルです。信念を持ち、それを以前に概説したボックスに入れること。 あなたの仕事や余暇の追求が現在正式な文章を持っていないという証明された真実にもかかわらず、潜在的な可能性は(特にあなたの仕事が学校レベルを必要とする場合)それにもかかわらず、あなたは何かを正しくのぞき見し、それについて結論を導き出し、それらの結論を最新のものにすることが期待されています.異議を申し立てられた場合、説得力のある証拠によって裏付けられた透明な手順で、より特定の人物(上司、部下、同僚、可能性など)に。 そこで私たちが実践しているのは、事実のアイデアを維持し、それらを事実の箱に入れ、その箱をより特定の人にうまく渡すアイデアです。 それは、適切な書面のデザイン (エッセイ)、非公式の書面 (電子メール、メモ、メモ、Slack の会話)、または口頭 (スピーチ、さらには議論、討論、ディスカッション) で実行することもできます。 考えを持ち、それを証拠で裏付け、その証拠をうまく整理して理解できるようにし、それをうまく伝えるという才能は応用可能であり、学者がエッセイを書くときに実践されている最大のスキルです.
決定的に – そして、このレベルは、私がソーシャル メディアで遭遇した多数の ChatGPT ブースターによって 無視されている ように見えます – このプロセスのどのレベルにも達せず、私は主にエッセイを望んでいます。 確かに、それらは私に提出され、採点され、コメントされなければなりません。なぜなら、その解決策は、生徒に強化する動機を与えるだけでなく、どこを強化しなければならないかを示すためでもあるからです。 しかし、エッセイが必要だったので、今はミッションを配置しませんでした。 類推を楽しむために、私は今、生徒に釘を鍛造するように頼んでいません。なぜなら、私はたくさんの釘を欲しがっているからです。 yway。 私は彼らに爪を鍛造するように頼んでいます.さらに、爪に対応する かなりの山 の鍛造方法を学びます。 学生には、アイデアを分析し、整理し、それらのアイデアを伝達することを学んでもらいたい.
直視できるものつまり、ChatGPT でエッセイを書くように教えているだけの学者は、学ぶ代わりに自分自身をごまかしているだけです (さらに、コメントや成績を提供するのに私の時間を無駄にしました)。 上記で見たように、ChatGPT は、私たちが実践している特定のコア イニシアチブをうまく置き換えることはできません。 そして、それは間違いなくタスクの理由を満たしていません. 主に する している は 練習中です
この議論はもっともらしく見えると思います。なぜなら、彼らは現在、新しい問題について調停する知識があるという能力によってではなく、その能力によって考えているからです。タスク自体; 彼らは主に、「エッセイの 1 つの単位」を作成するための最も生産的な手法に激怒しています。 しかし、私たちが実際に行っているのは、非新規プロジェクトを実行していることです (理由により、新規プロジェクトとして 扱うことにより)。これにより、新しい問題に直面したときに、同じスキルを指導する準備が整います 。 その結果、彼らはChatGPTが、平凡な学者のエッセイの不快な多くのように見えるものにある程度の距離があるため、知識が豊富であることを覚えています(これは、前代未聞の悪質な学者のエッセイのデザインを模倣しています
いいえ。 いいえ、仲介はしません
ChatGPTによって混乱する教員室がありますが、それらはすでに何かが破損している教員室です。 完全に古い以前の教員室の場合、ChatGPT があなたのタスクに対してまともなエッセイを大量に生成できる場合、潜在的な可能性はタスクの設計が不十分です 。 ChatGPT は、貴重な情報源を分析することはできませんが (実際のプレゼンテーションで何度も何度も分析されていることを除いて)、学問を引用するのに苦労し (最も絶え間なく間違った情報源を発明しています)、特定の証拠を最も絶え間なく回避しています。 中立的な引用からレコードデータを検索する効果的に設計された課題、特定の 主張を強化するための証拠 (総陳述のジレンマ)、および透明な論文は、以前の ChatGPT になり、確実にChatGPT フレームワークから製造するには非常に大きな改善が必要であり、チートする手間をほとんどかけずに派生させることはほとんどありません。 指示されたエッセイが、漠然とした ChatGPT 生成された決まり文句だけを使用して効率的に回答できる場合でも、それは悪質な指示です .
計画に組み込まれている障害を理解するためのアイデアを知っていれば、その間の ChatGPT の応答は、実際には地域にとって非常に単純なように見えます。 文章の一部が機械で書かれたものかどうかを検出するように設計されたパッケージが既にあります。 彼らは今では完全に啓発的ではありませんが、基本的には両方のAI開発者の利益の範囲内であるため、時間の経過とともにより啓発的に変化すると思います. ) および Google のようなエンジン (誰もが認識している、機械によって生成された吃音の材料工場のゴミの真の川が来ていることを検索結果から除外する準備ができているように見えます) は、その機能を生み出します。 しかし、ChatGPT はちっぽけなものであるという考えに起因して、人間の採点者は、ChatGPT が生成した非常にきびきびした応答にもフラグを立てる準備ができている必要があります。論文が引用している情報源が存在するかどうかを立証するため。 説得力があるように聞こえますが、もっぱら発明されたソースがたくさんある論文は、機械で書かれる傾向があります。人間はその間違いを導き出す傾向がないからです。 もう1つ、その論文の望み通りに、論文が特定の作家によって書かれた、または特定のトピックについて書かれた作品に単に漠然と言及している場合、学者がそれらの作品を作成したことを関連付ける(そしてすべての論文で引用を要求する) – ChatGPT の論文を持っている研究者にとって、これはおそらく非常に骨の折れる作業である可能性があります。 さらに、ChatGPT には、悪名の低い人々を同じ名前の悪名高い人々と間違える動作があります。 トピックのトピックを認識している採点者にとっては、これは非常に明白である必要があります.
その後、エラーがあると主張するのは無意味です. ChatGPT は、何百ものアップライト エラーを起こします。特に、知識が必要なトピック トピックの量がはるかに少ない、より技術的な質問になると、その傾向が顕著になります。 それが生成するスタッター素材は、その分野の最小限の知識を持つ人にとっては最も絶え間なく 権威があるように見えますが 、理論的には、論文を採点する特定の人は、地域に十分な根拠を維持しなければなりません。より長い分析論文のパスに忍び込むことは確実な明らかな遠吠えの中で。 例として、ChatGPT に「紀元前 3 世紀と前 2 世紀におけるローマ防衛軍の成功の原因」について書くように依頼しました。 今では絶え間なく発言セグメントのトピックではありません。 全体が十分に充実した問題とエラーになり、実際には、ここでそれらすべてを指摘する注釈付きのメモドキュメントで構成されます:
主張する必要はありませんが、これは今ではありません。私のクラスの合格(Cまたは昇格)論文。 ここでの実際のカウントは変動しますが、私は 38 件の正当な主張を認めました。そのうち 7 件は驚くべきものであり、7 件はひどく歪曲されており、24 件は単なるスキャンダラスなものでした。 この悪質な列車事故は、私が学者と会って質問を提起することを完全に維持し、紙が機械で書かれたものに変わった場合、学者が認めるのは非常に面倒になる傾向があります。 実際、これらのエラーのうち 3 つまたは 4 つが事実に基づいている分析論文は、学者との集まりに彼らの分析のアイデアについて知らせるように指示する可能性があります。 それは間違いなく、さらにエラー率であり、私の注意をそらし、誰がエッセイと手順を正確に書いたかについて質問するために私をジレンマにします.
それが問題です:自由市場では、競合他社は単に破壊的な新技術を排除することはできません。 でも、教務室では、これを完全に達成するための手続きを受けます。 私は一種の教授であり、ラップトップをショーマスクの撮影に使用できないようにしています(ただし、それは障害のある宿泊施設であり、主張しても意味がありません)むしろ
これで一部の教員室が混乱することはありますか? もちろん。 過労または無関心な採点者は、これらの論文にだまされているように見えるか、より適切には、誰が論文を書いたかを気にしなくなります。これらのインストラクターまたは採点者は、結果を発見することにあまり大きな投資をしていないか、時間が与えられていないためです。そしてソース はポジションを取る にも関わらず、おそらくニュートラルにぶら下がる可能性があります。 学校は、非常に短い時間で途方もなく大量の論文を採点することを絶え間なく要求され、そのため、十分に時間をかけて読む時間が不足している非常勤職員や TA の作業負荷について特に調整しようとしています。 もちろん、優秀な学生がこれに お金を払っている ことを考えると、これらの課題に値する最小限の精査を可能にするために、情報源が手元にあるように見えることに従事するでしょう. この結果として、事実に忠実で献身的な講師と悪質で無関心な講師との間のギャップが拡大するため、学部は、「彼または彼女の分析のために」または博士号取得機関の名声のために、無関心な講師を雇うことのトレードオフを再考することさえできます。
同様に、不適切に設計された課題は、代表チームの学生が簡単にカンニングできるように思われますが、それは単に私たち全員がタスクの設計にもっと注意を払い、意図的に行うことを要求するだけです (仮に私の経験では、ほとんどの教授は教えることで、今では古代や古典よりも減っていません。 ChatGPT がどのようにしてこの試験に合格したかについてのニュースを目にするたびに、私は少し困惑し、それらのパッケージで期待されている作業の段階にかなりとらわれていることを告白します. ChatGPTが代用教員を通過できれば 、それは代替教員について非常に言及している 1 つのことをニュートラルに表現することができます (または、現在、合格のためのジレンマよりも減少していません)。
私が聞いた最後の議論は、一方、ChatGPT または実質的な言語の流行は、それが中立である可能性が高く、今では私の仕事が古くなることはありません 今 、彼らは 必然的に
さらに大まかに言えば、何百もの AI 分析のように聞こえるかもしれません (私は主に、私たちが実行したことが実際よりもはるかに人工的な心に近いことを暗示しているように思われるこれらの用語のほとんどを軽蔑します。今は今よりも減っていません)は、「あなたがそれを導き出すまで間違っている」マネキンに取り組んでいます. それはテクニックとして完璧です: 私たちは心を製造しようとしていますが、私たちは 主に 心の手順を知りませんかなりの複雑さで動作するため、最大の説得力のある間違いがある種の心になることが判明しました。 その方法 がおそらく 機能するとは考えていませんが、AI ブースターが考慮に入れていることは、それがニュートラルである可能性があることです。 それはニュートラルであり、主に、私たちが行っていることを機械が発見する形が無意味な停止であることが判明するでしょう.
それは最も貴重な時間ではありません! 初期の錬金術師
その間の長さで、技術のパイオニアたちに、あなたが設計した機械の結果にもっと生き生きと喜びを感じてほしいとお願いしています . 1 つのことを 実行できる からといって、それを 実行しなければならない とは限らないため、有効です。 私たちはおそらく、2,000回の核爆発が実際に核の寒さを生み出すかどうかを経験的にテストすることができますが、すべきではありません。 いくつかの発明 – エクスプレス、サリンガソリン – 着用しないでください. 私たちが できる ことを発見することは、絶え間なく称賛に値します。 やっている が今は継続的にそうではない。 そして、何度も何度も、これらの新しいマシンが作成され、それらの影響がどうなる傾向があるかについてのごくわずかなトピックで展開されます. ChatGPT は社会を強化するか、それとも事実のくずかより多くのがらくたを含む Web は、右の人間を分類するためのより多くの時間をぶら下げることができます ? これは市場を不正行為で混乱させるためのツールですか?
— アレックス・ブレチマン (@AlexBlechman) 2021年11月8日

それらの質問への答えはあまりにも絶え間なく、「きちんと実行さえすれば、誰かがそれを達成するので、私はそれを実行します。最初にそれをきちんと達成する(そして悪名高いまたは繁栄する)」これは、不道徳な利己的な正当化であるだけでなく、特定の人に採用する自殺行為のルールでもあります最も単純な生物圏を致命的に照射するスキルを持つes. 私たちの種が設計し、台無しにしなければならないエネルギーの量は、ずっと前に、私たちがその基盤の上に存在し続けることができると思われるレベルを超えました.
そして、そのプロジェクト – 私たちの発明の倫理について、私たちの研究室をスピードアップさせるよりも早く仲介したい – それは思考プロジェクトであり、ChatGPT だけが私たちを扇動する無力なプロジェクトです。
𝚆𝚊𝚝𝚌𝚑 𝙽𝙾𝚆 📺