tv > 갤러리

본문 바로가기

회원메뉴

tv

페이지 정보

작성자 독립가 댓글 0건 조회 91회 작성일 25-02-24 21:39

본문

tv챗 GPT 등 대형언어모델(이하 LLM)을 이용한 개인정보 악용 가능성이 실험을 통해 입증됐다. 구글(Google)이 최근 인공지능 기술을 무기나 감시에 활용하지 않겠다는 기존의 약속을 철회해 인공지능 악용 가능성에 대한 논란이 불거진 점을 상기할 때, LLM 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 가능성이 실존한다는 의미다. KAIST는 전기 및 전자공학부 신승원 교수, 김재철 AI 대학원 이기민 교수 공동연구팀이 LLM을 이용한 사이버 공격 가능성을 실험적으로 규명했다고 24일 밝혔다. lgtv현재 오픈AI(OpenAI), 구글 AI 등 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 하지만 공동연구팀의 실험 결과에서는 이러한 방어 기법에도 불구하고, 우회적으로 악의적 사이버 공격을 수행할 수 있음이 확인됐다. 삼성tv특히 공격자가 사이버 공격에 많은 시간과 노력을 들여야 했던 기존 상황과 달리, LLM 에이전트는 이를 평균 5~20초 이내에 30~60원(2~4센트) 수준의 비용으로도 개인정보를 탈취하는 등 악의적 사이버 공격을 수행할 수 있어 LLM 서비스가 사이버 환경에서 새로운 위협 요소가 될 수 있다고 공동연구팀은 진단했다.

댓글목록

등록된 댓글이 없습니다.

서비스이용약관   개인정보처리방침
회사명 이노첵(INOCHECK) 주소 서울시 송파구 가락로 43, 2층 1호
사업자 등록번호 645-24-00890 대표 신비아 팩스 02-423-7836
통신판매업신고번호 제2019-서울송파-1577호 개인정보 보호책임자 신비아
Copyright © 2019 이노첵(INOCHECK). All Rights Reserved.

CS CENTER

Tel. 1566-9357 Email. inocheck@naver.com

평일 10:00~17:00
점심시간 12:00~13:00
토요일 / 일요일 / 공휴일 휴무