- 医療提供者でハーバード大学のコンピューター科学者は、GPT-4 は「多くの科学医師」よりも優れた科学的判断力を持っていると述べています。
- チャットボットは、まれな規定を診断することができます。
- それにもかかわらず、GPT-4 はさらにエラーを作成する可能性があり、ヒポクラテスの誓いを実行していません。
読み込み中
ご登録ありがとうございます!
よろめきにいるときはいつでも、パーソナライズされたフィードで受け入れられた主題へのバッグエントリ。
要約するのぞき見の瞬き。 この技術は、人間の流行知性を賞賛しているように見えるものをある程度測定する必要がある方法で、複雑さによってその推論をコンピューターでスクリーニングすることさえできます.
それでも、GPT-4 からファイルを検索するときはいつでも、GPT-4 がこれをすべて実行する多くのトップの方法の 1 つであるため、おそらく、そのインテリジェンスのすべてが「パターンに制限された」穏やかなものであることを発見する可能性があります。記録の範囲内にあり、ワークアウトや意図を安全に修正することはできません。」 これは、GPT-4 が電子ブックの著者にアドバイスしたことであり、因果関係の推論で非常にうまく選択される可能性があるかどうかを彼らが要求したときです。 そのような制限があっても、コハネが電子ブックでたまたま見つけたように、GPT-4 は、科学的な医師が規定を診断する方法を模倣して、エレガントな — 恐ろしいものではあります — 成功を収めることができます。
GPT-4 がどのように医者を賞賛することができるか
Isaac Kohane は医師であり、コンピューター科学者であり、薬とAIの交差点。 Matthew J. Lee/The Boston Globe via Getty Photos
小羽は電子ブック内でGPT-4を使った科学的受胎実験を行い、主に、彼が何年も前に扱った新生児を熱狂させる信頼できる存在のケースに完全に基づいています。 身体検査から収集した赤ちゃんに関するいくつかの重要な詳細、さらに超音波およびホルモンレベルからのいくつかのファイルをボットに与えると、マシンは10万分の1の状況を正確に診断する準備が整いました。 先天性副腎過形成
医師はそれぞれに感心と不安に変わりました。 「一方、私は計算機を使ったスタイリッシュな科学的対話に変わりました。彼は次のように書いています。チャンスごとの保証または GPT-4のアドバイスが信頼できる、または途方もないものであることを証明します」 GPT-4 は常に正しいとは限りません — そして道徳的なコンパス GPT-4 はもはや常に正しいわけではなく、電子ブックにはその失敗の例がたくさんあります。 彼らは、簡単な事務的な間違いから変動し、ボットが少し前に正確に計算した BMI を誤って述べることを称賛し、数独パズルを不正確に「解く」こと、または方程式の項を 2 乗するのを忘れたことを数学の間違いに賞賛します。 エラーはほとんどの場合微妙であり、システムは問題が発生した場合でも、それが正しいとつぶやく傾向があります. 間違った数字や誤った体重の計算が、処方や診断に重大な誤りをもたらす可能性があることについて、もはや言い張ることはできません。
初期の GPT が大好きで、GPT-4 はさらに「幻覚」を起こすことができます。
電子ブックの著者である GPT-4 は次のように述べています。人間の医師または看護師の道徳的説明責任。」 電子ブック内で著者が示唆する一見欠陥のあるテストの 1 つは、現代の電子書籍を作成することです。 GPT-4 とのセッションを開始し、それを吸収して「読み返し」、「チェック」し、「独特の苦境」で作業を行います。 この戦術は、エラーを観察するために機能することがありますが、GPT-4 は悪意を持って認めようとはしません。 エラーをキャッチするもう 1 つの提案は、ボットがその作業を明らかにするように指示することです。 GPT-4には、大切な時間と持ち物を解き放つように見えるものがあることを確認してくださいこれにより、臨床医は、「さまざまなコンピュータ ディスプレイのように」患者と一緒にコンピュータの画面にいることができるようになると、著者は書いています。 それにもかかわらず、彼らは、「私たちは、遅かれ早かれ、ほぼすべての次元で人間の知性を超える可能性のある、ますますスマートなマシンで世界を騒がせるように自分自身を駆り立てる必要があります。その後、その世界がどのように機能する必要があるかについて非常にストレスを感じる.」