これら 6 つのことを行うために ChatGPT を使用しないでください

d0fd4273cc3c41c4e45c402f07845d30.gif

ChatGPT は、一貫性のある適切な応答を生成できる強力な AI ツールですが、限界があります。これは、機密情報の安全なチャネルでも、法的または医学的アドバイスの信頼できる情報源でも、人間の意思決定や専門的なメンタルヘルスのサポートに代わるものでも、事実情報の信頼できる情報源でも、複雑な数学的問題を正確に支援するものでもありません。

元のリンク: https://www.howtogeek.com/886928/6-things-you-Shouldnt-use-chatgpt-for/

許可なく再配布しないでください!

著者 | SYDNEY BUTLER 編集者 | Xia Meng

翻訳者 |

出品 | CSDN(ID:CSDNnews)

ChatGPT は非常に強力であり、コンピューターとの対話方法に変革的な影響を与えてきました。ただし、他のツールと同様に、その制限を理解し、正しく使用することが重要です。ChatGPT で絶対にやってはいけない 6 つのことを次に示します。

ChatGPT の制限事項

詳細に入る前に、ChatGPT の制限を理解することが重要です。まず、会話で明示的に提供されない限り、または ChatGPT のネットワーク プラグインを有効にしている場合を除き、ライブ データや個人データにアクセスできません。ブラウジングを有効にしないと (ChatGPT Plus が必要)、トレーニング中に学習したパターンと情報に基づいて応答を生成します。これには、2021 年 9 月のトレーニング期限に先立って大量のインターネット テキストが含まれます。ただし、人間の知覚では何も「認識」しませんし、人間のように文脈を理解することもできません。

ChatGPT は、多くの場合、非常に一貫性のある適切な応答を生成しますが、完璧ではありません。間違った答えや意味のない答えが生成される可能性があります。その熟練度は、与えられるプロンプトの質と明瞭さに大きく依存します。

e4adfe800d9537501c8c6e4cd7ac01a3.png

ChatGPT では機密情報を使用しないでください

その設計とその動作方法により、ChatGPT は機密情報を共有または処理するための安全なチャネルではありません。これには、財務詳細、パスワード、個人を特定できる情報、または機密データが含まれます。

最近、OpenAI は、チャットが保存されたり、将来のトレーニングに使用されたりすることを防ぐ新しい「ステルス」モードを追加しましたが、その約束を信頼するかどうかを決定できるのはあなただけです。Samsung などの一部の企業は、データ侵害を理由に従業員が職場で ChatGPT を使用することを禁止しています。

97edb87ca6589d09a0f7211ebfab028b.png

法的または医学的なアドバイスを得るために使用しないでください

ChatGPT は、正確な法的または医学的アドバイスを提供する認定を受けていません。その応答は、トレーニング データ内で利用可能なパターンと情報に基づいています。個々の法的または医療事件のニュアンスや詳細を理解できません。法律や医学に関する一般的な情報が提供される場合もありますが、そのようなアドバイスについては、必ず資格のある専門家に相談してください。

GPT は、間違いなく合法的な医療診断に適用できる可能性を秘めた有望なテクノロジーですが、これは特化した認定された医療 AI システムの形で提供されます。これは一般に公開されている汎用の ChatGPT 製品ではありません。

0f67118c65e207bdbad9931c9d264a19.png

あなたに代わって決定を下すためにそれを使用しないでください

ChatGPT は、情報を提供し、オプションを提案し、プロンプトに基づいて意思決定プロセスをシミュレートすることもできます。ただし、AI はその出力が現実世界に与える影響を理解していないことに注意する必要があります。感情、道徳、個人の価値観など、意思決定に関わるあらゆる人間的側面が考慮されていません。したがって、ブレインストーミングやアイデアの検討には便利なツールですが、最終決定は常に人間が行う必要があります。

ChatGPT 3.5 はデフォルトの ChatGPT モデルであり、現在無料ユーザーが利用できる唯一のモデルであるため、これは特に重要です。GPT 3.5 の推論能力は GPT 4 に比べて大幅に低下しています。

406b8a7271954cd83979b772b6f9140b.png

信頼できる情報源として受け取らないでください

ChatGPT は大量の情報に基づいてトレーニングされており、多くの場合正確な応答を提供しますが、信頼できる真実の情報源ではありません。情報を検証したり、事実をリアルタイムで確認したりすることはできません。したがって、ChatGPT から取得した情報は、特にニュース、科学的事実、歴史的出来事などの重要事項に関して、信頼できる権威ある情報源と相互検証する必要があります。

ChatGPT は、本物のように聞こえるが完全に捏造された事実を「幻覚」させる傾向があります。皆さんも十分に注意してください!

e8181281cb75c86d60fd8cbcd97749ad.png

ChatGPT をカウンセラーとして使用しないでください

ChatGPT のような AI テクノロジーは、思いやりのある応答をシミュレートし、一般的なアドバイスを提供できますが、専門的なメンタルヘルス サポートに代わるものではありません。彼らは人間の感情を深く理解して処理することができません。

AI は、人間のセラピストに固有の微妙な理解、感情的共感、道徳的な羅針盤を置き換えることはできません。深刻な感情的または心理的問題については、必ず資格のあるメンタルヘルス専門家に助けを求めてください。

bbeada92da62cbae2f96f691f9303e60.png

計算を行うために ChatGPT を使用しないでください。

一見すると、ChatGPT のような AI に数学の宿題を手伝ってもらうのは自然なアプリケーションのように思えます。ただし、ChatGPT の強みは数学ではなく言語であることに注意することが重要です。膨大なトレーニング データにもかかわらず、複雑な数学的演算を正確に実行したり、複雑な問題を解決したりする能力には限界があります。

ChatGPT は幅広い用途を備えた優れたツールですが、その制限を理解することが重要です。このツールを正しく使用すると、誤解を招く情報や潜在的に有害な情報の源ではなく、補助としてその利点を活用できます。e3238bd3befafe0da53bcdbc535c19f9.gif

おすすめ

転載: blog.csdn.net/FL63Zv9Zou86950w/article/details/131058448