開発者が安全に生成AIと協力する方法
開発者とAIの安全な協力方法
ソフトウェア開発に従事している場合、またはテクノロジー業界のいかなる部門においても、生成型人工知能(AI)のプラットフォームについての議論に参加したり、見出しを読んだり、プラットフォームを試したりしたことがあるでしょう。要するに、この新しい急速に進化する技術はどこにでも存在しています。
AIコード生成ツールによる生産性の向上という魅力的な約束に加えて、GitHubはAIによる開発者の生産性の増加が世界のGDPを1.5兆ドル以上押し上げる可能性があると主張していますが、それにはリスクも伴います。これらのリスクには、AIモデルが理解および説明が困難な複雑なコードを生成する可能性があるため、コードの品質に関する懸念が含まれます。
知的財産権、所有権、およびAI生成コードの著作権に関する議論の中で、IP所有に関する複雑さのリスクもあります。この技術が進化するにつれて、ガイダンスはより明確になるでしょうが、それには時間がかかります。現在、オープンソースソフトウェアでトレーニングされたAI生成コードを使用する場合、このソフトウェアのライセンス要件に準拠しないと、著作権の侵害になる可能性があります。
最後に、AI生成コードには、誤っているかもしれませんが、いくつかの脆弱性が含まれる可能性があります。たとえば、AIが安全でないコードでトレーニングされている場合、それに応じて安全でないコードが生成されます。単純に言えば、ゴミを入れればゴミが出ます。
セキュリティを最優先にする
では、セキュリティを危険にさらすことなく、生成型AIを最大限に活用するために開発者は何をすべきでしょうか?
- 生成型AIを初心者のコーディングパートナーとして考える:開発者は、生成型AIコーディングツールを使う際には、品質が低く、脆弱性を含んだコードを期待して取り組むべきです。
- AIプロンプトに対して警戒心を持つ:AIプロンプトを介して機密情報を漏洩することは、大きなプライバシーリスクです。現在、サービスが顧客データを本当にどのように扱っているのかについては、限られた理解しかありません。
- コードレビューをさらに統合する:従来のコーディングと同様に、コードレビューはソフトウェア開発ライフサイクル(SDLC)内で重要なプロセスです。AI生成コードのセキュリティと品質をレビューすることは重要です。表面上は一貫しているように見えるかもしれませんが、テストの結果、正確で安全ではない可能性があります。
- 継続的なトレーニングを受け入れる:AI生成コードのレビューとテストが非常に重要であるため、プロンプトの背後にいるソフトウェア開発者と最終製品、アプリケーション、またはサービスの提供者がセキュアなコーディングについて良い理解を持つことは非常に重要です。これらの専門家は、脆弱性を認識し対処する方法についてのトレーニングを受ける必要があります。脅威の状況が非常に迅速に変化するため、このトレーニングはSDLC全体にわたって継続的に提供される必要があります。
これらのガイドラインによって、生成型AIが可能にする生産性の向上とコードのセキュリティと品質へのリスクのバランスを取ることは確かに可能です。ただし、このバランスの基盤となるのは、生成型AIが安全でないコードの源となるのではなく、連続的でプログラム可能なセキュアコーディングトレーニングです。
We will continue to update VoAGI; if you have any questions or suggestions, please contact us!
Was this article helpful?
93 out of 132 found this helpful
Related articles