세계에서 가장 유능한 인턴을 상상해보십시오. 밤새 수천 개의 문서를 읽을 수있는 사람은 즉시 복잡한 문제에서 시작하여 불만없이 연중 무휴 24 시간 작동합니다. 그러나 캐치가 있습니다 :이 인턴들은 또한 엄청나게 유죄이며 당신은 당신이 그들에게 말할 것을 믿게 될 것입니다. 그것은 나쁜 배우들에게 완벽한 목표를 만듭니다.
이 비유는 에이전트 AI의 현재 상태를 완전히 묘사합니다. 또한 지금까지 만들어진 가장 정교한 도구이며 일반 사기에는 가장 취약합니다.
사람들은 AI를 어떻게 분리하는지 더 어려워집니다. 다른 사람을 자극하는 것을 자극하는 특징으로 건축업자와 사용자 사이의 분할을 만듭니다.
제조업체 – 별명 엔지니어 및 연구원 – 데이터 품질, 알고리즘 편견 및 존재를 기반으로 한 문제에 중점을 둡니다. 그들의 불안은 제목과 학업 토론을 지배합니다.
그러나 이러한 도구를 실질적으로 안전하게 사용하려는 비즈니스 리더 및 운영 팀과 같은 사용자는 더 실용적인 문제를 가지고 있습니다. AI는 AI가 세상을 종식 시킬지 여부에 대해 덜 걱정하고 있으며 고객 데이터를 공개하거나 비싼 실수를할지 여부에 더 집중할 것입니다.
건축업자가 미래에 집중하면 사용자는 오늘 AI가 할 수있는 일을 알고 싶어합니다. 불행히도, 그들은 에이전트가 AI를 제공 할 것으로 예상하고 그것이 할 수있는 일 사이의 간격으로 충분합니다.
Damien Duff Demon 박사는 주요 AI/ML 컨설턴트입니다.
기대 대 현실
AI 요원 주변의 이야기는 종종 밤새 모든 비즈니스를 바꿀 수있는 완전히 자율적 인 디지털 직원의 이미지를 그립니다. 다중 에이전트 LLM은 더 이상 이론이 아니지만 전체 비즈니스 변환 전에 더 많은 검색이 필요합니다.
현재의 AI 시스템은 거대한 문서에서 지식을 소진하고 소프트웨어 제공 수명 시스템을 가속화하며 비옥 한 에이전트에게 동정적인 고객 상호 작용을 제공 할 수 있습니다. 그러나 복잡한 새로운 환경에서 독립적으로 작동하는 자율 시스템은 손이 닿지 않습니다.
AI는 인간 감독으로 구조적 작업을 완료 할 수 있지만, 프리 엔드 문제, 장기 계획 및 고장이 발생하는 높은 수준의 결정에 맞서 싸 웁니다.
예를 들어, AI 코드는 잠재적 인 취약점을 감지하고 광범위한 수정 사항을 제공 할 수 있지만 개발자는 일관되게 광범위한 시스템의 컨텍스트를 설명 할 수 없기 때문에 응용 프로그램을 구현하기 위해 솔루션을 평가해야합니다.
염증이있는 기대의 위험은 기업이 실제 보안 위험에 의해 절약되었다는 것입니다. 준비에 거짓말을하고 싶은 유혹이 있기 때문에 그들은 그들이 직면 할 일상적인 위협에 아프다.
보호의 도전
AI 시스템 에이전트 AI 시스템은 시스템 시스템이 비즈니스 목표와 통합되도록하는 데 중요한 과제에 직면함에 따라 더 자율적입니다. AI 에이전트가 더욱 유능 해지므로 제어가 더 강해 지므로 흡수하기 쉽습니다. 추측에 실패한 기존 소프트웨어와는 달리 AI 시스템은 창의적으로 실패 할 수 있으며 제조업체는 예상됩니다.
그렇다면 조직은 실제로 어떤 종류의 보안 위험에 대해 걱정해야합니까?
시스템 전체의 데이터 보호, 위험 관리, 강력한 보고서 및 가시성과 같은 전통적인 IT 문제는 새로운 접근 방식이 필요한 다른 멋진 과제가 있습니다.
예를 들어, 나쁜 행위자가 무고한 요청에 오염 된 지시를 내릴 수있는 신속한 주입과 같은 적대적인 프롬프트 엔지니어링 또는 공격자가 잘못된 맥락을 제공하여 잘못된 가정에 근거하여 결정을 내리는 상황에 중점을 둘 수 있습니다.
또 다른 중요한 문제는 결함입니다. 경험이 풍부한 사람들은 종종 실수를 보여주고, AI 오류는 특히 다중 에이전트 시스템에서 빠르게 눈덩이를 만들 수 있으며 작은 문제를 크게 바꿀 수 있습니다. 에이전트 인수는 인간 논리와 매우 유사하고 나선형으로 나선형이기 때문에 초기 단계에서는 눈에 띄지 않을 수 있습니다.
AI 위험은 끔찍한 것처럼 보일 수 있지만 솔루션은 종종 회사의 기대보다 더 친숙합니다. 이것은 보안 문제가 발생하는지에 대한 의문이 아니라 준비하는 것이 중요합니다.
해결책
AI 에이전트의 특정 보안 문제에 대한 많은 솔루션이 전통적인 부모의 사이버 시스 및 위험 관리 구조 내에 존재합니다. 제로 트러스트, 인간 감독 및 이미 원칙 (또는 어떤 회사와 함께 일하는지)에 대한 통제 된 접근은 그들과 함께 적용되어야한다).
모든 AI 입력이 안전하다고 가정하는 대신 회사는 잠재적으로 오염 된 것으로 간주되어야하며 여러 검증 계층을 적용해야합니다. 이 접근법은 앱 전체에서 작동하는 고객 서비스 또는 재무 활동입니다.
정책이 직선이지만 성공적인 구현에는 경고 계획이 필요합니다. 효과적인 에이전트 AI 보호를 만들려면 조직은 다음과 같습니다.
- 작은 폭발 반경으로 시작하십시오. 실수가 복구 가능한 경우 위험이 낮고 고가의 사용이 발생하는 경우 시작하십시오. 예를 들어, 금융 거래로 이동하기 전에 문서를 브리핑 할 AI를 설정하십시오. 그것은 조직의 신뢰와 기술을 만듭니다.
- 관리 생성 : 문제가 발생하기를 기다리지 마십시오. 명백한 승인 프로세스 및 직원 교육 프로그램을 설정하여 직원이 문제가 발생하면 어떻게 해야하는지 알 수 있습니다.
- 자동 합법성 과정 : AI 기반 AI 기반 AI 기반 및 전통적인 평가 테스트 슈트를 구축하고 지속적으로 확장하여 가장자리의 사례 중 최악의 불리한 공격을 향상시켜 진행중인 목표를 따르지 않고 신중하게 개선을 측정하고 백 슬라이드를 방지합니다.
- 모든 질문 : AI 도구를 통합하여 본질적으로 믿지 않고 AI 출력에 의문을 제기하여 사용자와 팀을 훈련시킵니다. 동료 검토 프로세스를 설정함으로써 스팟 뺨을 끄는 프로토콜을 소개하고 누군가가 실수를 할 때 제조업체와 고객 모두를 축하하여 검증 문화의 일부를 만듭니다.
- 보안 프로세스 개발 : 정기적 인 위험 평가를 관리하고, 약점에 대한 기존 구현을 모니터링하고, 모니터링 시스템을 적용하며 AI 특정 반응 방법을 만듭니다. 성공을위한 보안 정책을 설정하십시오.
- 앞서있어 : 직원들이 관련 교육을 제공하고 업계 포럼에 참여하고 동료들과의 경험을 논의하고 보안 회의에 참석하도록 장려함으로써 신흥 위협에 대한 정보를 얻었는지 확인하십시오. 지식의 힘을 기억하십시오.
미래
AI 요원은 우리가 일하고 문제를 해결하는 방식으로 변환 할 수있는 강력한 도구입니다. 그러나 강력하고 신흥 기술과 마찬가지로 존중, 이해 및 적절한 보안 조치가 필요합니다.
키는 다른 장비에 적용 해야하는 경고 계획 및 위험 관리 로이 기술에 도달했습니다. Sawant Intern Harmony는 가장 유능한 시스템조차도 경계선과 달리기 방향이 필요하다는 것을 상기시킵니다.
우리는 최고의 AI 웹 사이트 제조업체를 선보였습니다.
이 기사는 TechraderPro Specialist Insight Channel의 일환으로 기술 산업에서 오늘날 최고의 마음을 사로 잡았습니다. 여기에 발표 된 견해는 저자에 있으며 TechRoderPro 또는 Future PLC에 필수적이지 않습니다. 기여에 관심이 있으시면 여기에서 자세히 알아보십시오. https://www.techradar.com/news/submit-your-totory-techradar-pradar