“AI의 대부”인 Geoffrey Hinton이 토크를 할 때, 당신은 듣습니다. 그가 인공 일반 정보 (AGI)에 대한 그의 예측을 30-50 년에서 5-20 년까지 예측하면 앞으로 몸을 기울입니다.
지난 주 AI4 컨퍼런스에서 힌튼이 인류가 AI에 대한 통제력을 상실 할 수 있다는 경고를 포함하여 그의 시그니처 AI Doomerism을 전달한 AI4 컨퍼런스에서 일어난 일입니다.
그러나 현재 토론토 대학의 명예 교수이자 2024 년 노벨 물리학 상을 수상한 화려한 과학자는 또한 비 전통적인 해결책을 제안했다. “어머니 AI”를 건설하십시오. 아이를 지켜보고있는 부모처럼 우리를 보호하도록 설계된 AI 시스템을 만듭니다.
힌튼은 눈에 띄는 비유에 도달했습니다. 더 지능적인 사람을 통제하는 유일한 사례는 뿌리 깊은 모성 본능 덕분에 어머니를 통제하는 아기입니다. AI 시스템이 같은 본능을 가지고 있다면, 우리를 통제하기에 충분히 강력 해졌어도 우리를 보호 할 수 있습니다.
대모의 반박
하루 후,“AI의 대모”는 대부의 예측을 철회했습니다. World Lab의 창립자이자 Stanford University의 인간 중심 AI Institute의 창립 감독 인 Fei-Fei Li가 라스 베이거스의 MGM Grand Garden Arena에서 무대에 올랐을 때, 그녀는 산모 본능과 함께 AI를 건설하는 것에 대해 논쟁했습니다. 우리는 처음에 AI에 통제를 넘겨서는 안됩니다.
리는“인간 중심 AI”를 옹호했다. 인간은 목표, 프레임 워크 및 제약을 설정하고 첫날부터 통제력을 유지합니다. 어머니의 본능과 같은 보호 조치는 사실 이후에 볼트로 고정되지 않습니다. 그들은 처음부터 구워졌습니다.
더 안전한 내기입니다. 가장 강한 모성 본능조차도 아이가 엄청나게 나쁜 결정을 내리는 것을 막을 수는 없습니다.
토글 세금 납부를 중단하십시오
AI는 우리가 통제력을 잃기 위해 더 강력한 수준의 AGI에 도달 할 필요가 없습니다. 우리는 일이 디지털 핀볼로 바뀌는 순간을 잃습니다.
세션에서 저는 GLEAN의 최신 통찰력을 공유 세금으로부터 직원 보호 또는 앱 간 전환 비용을 포함하여 조직이 AI에 대한 제어를 피하는 방법에 대한 최신 통찰력을 공유했습니다.
Pre-AI조차도 일부 Fortune 500 명의 직원이 하루에 1,200 번 앱을 전환했습니다. 모든 토글은 뇌가 원래 과제로 돌아 가기 전에 23 분 이상 훔칠 수 있습니다. AI를 사용하면 그 세금이 더 빨리 쌓일 수 있습니다. 그리고 더 조용히.
AI 공급 업체가 딥 포켓 구매자의 관심을 끌기 위해 농담을 한 전시장에서, 몇몇은 같은 비유를 사용했습니다. 바퀴 나 자전거를 팔고 있습니까? 반짝이는 바퀴는 더 이상 임원 구매자에게 깊은 인상을주지 않습니다. 프레임, 체인, 기어 – 모든 AI 도구를 단일 시스템에 연결하는 수평 플랫폼 : 전체 자전거를 원합니다.
조직의 모든 팀이 다른 바퀴를 구매하는 경우, 당신은 당신을 어디로도 데려 가지 않을 값 비싼 부품의 폐차장을 비축하고 있습니다.
AI 문해력 수준이 상승합니다
“AI Literacy”는 모든 AI 회의에서 텐트 폴 주제이지만 종종 좁은 체크리스트로 평평하게됩니다. 프롬프트 엔지니어링과 그 비전 사촌, 메타 램프, 목록 위에 올라갑니다.
그러나 Lackluster AI 채택의 일부 간호 흉터 인 지도자들이 더 넓은 견해를 취하고 있음이 분명합니다. 문해력은 기술적 인 것이 아닙니다. 심리적입니다. 사고 방식과 역할에 관한 것입니다. 그리고 우리가 생성 AI에서 에이전트 AI로 이동함에 따라 이러한 변화는 결함 라인이됩니다. 많은 직원들, 특히 조직 차트의 낮은 직원들에게는 익숙하지 않은 도약입니다.
그의 기조 연설에서 Cisco의 최고 제품 책임자 인 Jeetu Patel은 도구 디자인이 문해력을 어떻게 구축 할 수 있는지의 예로“깊은 연구”를 지적했습니다. 종종 조수처럼 포장되었지만 에이전트처럼 운영되는 경우, 백그라운드에서 복잡한 연구를 실행하고 10 ~ 20 분 후에 심층 보고서로 반환합니다. 그 일시 중지는 즉각적인 만족감을 느끼지 않고 편안한 복잡한 작업을 AI에 편안하게 위임하고 더 넓은 대표단의 문을 열고 자체 에이전트를 구축하는 데 도움이됩니다.
AI에 무엇을 나누어야하는지 알아냅니다
AI 도구가 대표단을 더 쉽게 만들 수 있으므로 더 어려운 질문은 여전히 남아 있습니다. AI에 넘겨 줄 가치는 무엇입니까?
보편적 인 대답은 없습니다. 일부 발표자에게는 명확한 가드 레일을 그리는 것입니다. 소셜 미디어 인플 루 언서 Aishwarya Srinivasan은 엄격한 한도를 설정했다고 설명했습니다. AI가 생성 한 콘텐츠의 10 % 이하입니다. 그녀의 목소리를 희석하지 않고 효율성을 높이기에 충분합니다.
다른 사람들에게는 “Gotchas”키를 피하는 것입니다. 패널에서 나는 GoFundme와 Eyepop.ai의 공동 창립자 인 Andy Ballester와 함께 CTGT의 공동 창립자이자 Cyril Gorlla와 함께 AI를 칭찬했으며, 속도를 높이는 코드 생성으로 칭찬했지만“AI Slop”의 상승에 대해 경고했다. 바로 가기가 역효과를 낼 때 빠르게 생산하지만 더 빠르지 만 고객 신뢰를 확장하거나 수익 할 수있는 능력을 무릎에 찍을 수 있습니다.
그리고 일부의 경우, 그것은 방정식에서 AI를 완전히 제거하는 것을 의미합니다. Gorlla가 말한 것처럼 : AI를 사용하여 AI가 필요하지 않은 문제를 해결하지 마십시오.
그러나 라스베가스의 더 큰 대표권 베팅은 전체 일자리를 AI에 넘겨 줄지 여부였습니다. AI가 향후 1-5 년 내에 화이트 칼라 엔트리 레벨 작업의 50 %를 제거 할 수 있다는 Anthropic CEO Dario Amodei의 예측은 당 회의를 통해 반향했다.
파텔은 뒤로 밀렸다. 그는 에이전트 AI가 더 일반화되면서 젊은 노동자들은 더 깊은 관계로 자랄 것이라고 제안했다. 그들은 대체하는 대신 AI 유창성을 사용하여 선임 동료들에게 AI와보다 효과적으로 협력하는 방법을 가르 칠 수있었습니다. 최근의 연구에서 Matthew Beane (UCSB)과 Callen Anthony (NYU) 교수는 이것을“반전 견습”이라고 부르며, 그것이 제한적이지만 제한된 형태로는 효과가있을 수 있음을 발견했습니다.
인간은 승리해야합니다
CNN 기자 인 Matt Egan은 무대에서 Li를 인터뷰하면서 다음과 같이 물었습니다.“AI가 야구 경기라면 어떤 이닝이 있습니까?” 그녀는 함께 놀지 않았습니다. 그녀는 스포츠 경쟁이 아니라고 말했다. 그녀는 패자를 원하지 않습니다. 모든 인간은 이길 필요가 있습니다.
분출을 분출하기 전에 경기장은 순간적으로 얼어 붙는 것처럼 보였다. 그녀는 인류의 미래를 박스 점수처럼 취급한다는 아이디어를 꼬치었다. 그리고 Egan의 질문이 공중에 갇히면서 3 회와 이닝 4 사이에 조용히 토론 한 사람을 상기시켜주었습니다.
Inc.com 칼럼니스트가 여기에 표현한 의견은 Inc.com의 의견이 아니라 자체적입니다.