Microsoft、生成AIシステムにおけるレッドチーム向けツール「PyRIT」を公開:セキュリティニュースアラート Microsoftはセキュリティ専門家とMLエンジニアが生成AIシステムのリスクをプロアクティブに特定できるオープンな自動化フレームワーク「PyRIT」を公開した。PyRITはAIレッドチームの作業効率の向上が期待できる。
ESETは11月22日(現地時間)、「Your voice is my password – the risks of AI-driven voice cloning」において、生成AIにより合成した音声を悪用したソーシャルエンジニアリング攻撃の実験に成功したと伝えた。この実験では、従業員が自社の最高経営責任者(CEO: Chief Executive Officer)になりすまして、財務責任者から自分宛てに送金させることに成功しており、生成AIの危険性について注意喚起している。 Your voice is my password – the risks of AI-driven voice cloning これは事前にCEOの許可を得て行っ実験であり、ここで解説する手法をまねることは犯罪となる可能性があることに注意。この実験と同様の攻撃が今後増加する可能性があると懸念されており、企業や組
日本マイクロソフトは2023年4月20日、AI(人工知能)をサイバーディフェンスに適用する「Microsoft Security Copilot」(以下、Security Copilot)について説明会を実施した。 Microsoftが矢継ぎ早にAIサービスを発表 Security Copilotは何を目指すのか Security CopilotはMicrosoftが2023年3月28日(現地時間)に開催した「Microsoft Secure」で発表され、最先端のジェネレーティブAIであるOpenAIの「GPT-4」を利用している。Microsoft独自のセキュリティに関する専門知識にグローバルな脅威インテリジェンスを組み合わせ、安全に利用できるサイバー空間の構築を支援する。 Microsoft SecureでSecurity Copilotの発表を行った同社のバス・ジャッカル氏(Micr
Innovative Tech: このコーナーでは、テクノロジーの最新研究を紹介するWebメディア「Seamless」を主宰する山下裕毅氏が執筆。新規性の高い科学論文を山下氏がピックアップし、解説する。 米New York UniversityとカナダのUniversity of Calgaryの研究チームが発表した論文「Asleep at the Keyboard? Assessing the Security of GitHub Copilot’s Code Contributions」は、コードを自動生成する「GitHub Copilot」において、生成したコードがセキュリティ面でどれくらい安全かを調査した研究報告だ。結果、実験で生成したコードの約40%に脆弱性が発見された。 ソフトウェア開発者は、コードを迅速に作成することが求められるため、生産性を向上させる新しいツールや技術を常に
AI技術の搭載は、セキュリティにスピードとスケーラビリティをもたらすことが分かったと思います。とすると、AI技術があればよいのでしょうか。これまで成熟させてきた対策技術と入れ替えるようなものでしょうか。 残念ながら現時点では、AI技術だけで企業のセキュリティを守ることはできない、と考えています。第1回で触れた通りAI技術(機械学習)にも誤検出があり、しかもその比率は既存技術に比べて非常に高いため、それを補い、許容できるレベルに抑える必要があります。 また実は現状では、スクリプトやマクロなど、AI技術が苦手とする検出対象が存在します。 さらに、機械学習ではシグネチャこそ用いないものの、判断のための「モデル」というものを代わりに使っています。このモデルは機械学習のいわばエンジンであり、目標としている検出率と誤検出率を維持できない場合にアップデートを行う必要が発生します。 何かを検出しないから、
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く