안녕하세요.
8월의 주요 AI 이슈로 돌아왔습니다!
여러분들은 제품 제작에 AI가 이용됐다고 하면 더 신뢰가 가나요? 반대로 반감이 드나요?
AI로 제품을 만들면 더 잘 팔리는가에 관한 흥미로운 설문이 진행됐는데요.
그럼 AI라벨이 붙은 제품에 관한 내용과 AI 관련 다른 소식들을 함께 알아볼까요?
<목차>
LG, 7.8B 오픈소스 모델 ‘엑사원 3.0’ 공개…”빅테크 동급 모델 성능 능가”
👉🏻 위의 목차 중 원하시는 주제명을 클릭하시면, 해당 본문으로 바로 이동할 수 있습니다.
LG, 7.8B 오픈소스 모델 ‘엑사원 3.0’ 공개…”빅테크 동급 모델 성능 능가”
1. Summary: LG AI연구원에서 EXAONE 3.0을 오픈소스로 공개했다.
공개된 모델은 일반적으로 가장 많이 활용되는 크기인 7.8B 모델이다. 해당 모델은 비슷한 크기의 ‘Llama 3.1 8B’, ‘Mistral 7B’, ‘Gemma 2 9B’ 등
글로벌 오픈소스 모델의 성능을 능가한다고 밝혔다.
이 모델은 연구용 목적으로 공개되었으며, 상업적 사용은 불가하다.
또한 동시에 모델 구조, 매개 변수, 학습 데이터 토큰, 성능평가 결과 등을 담은 기술 문서도 공개했다.
이번에 공개된 모델의 주요 특징은 다음과 같다.
- 2.0 모델 대비 추론 시간 56% 감소
- 2.0 모델 대비 메모리 사용량 35% 감소
- 2.0 모델 대비 추론 비용 72% 감소
- 1.0 모델 대비 파라메터 수 97% 감소(300B -> 7.8B)
- 동급 글로벌 모델 대비 13개 벤치마크에서 1위
2. Implication: EXAONE 3.0은 발표 직후 AI 관련 커뮤니티에서 매우 집중이 되었던 모델이다.
다양한 벤치마크에서의 성능 우수성으로 인해 집중을 받기도 했지만,
국내 기업에서 자체 개발 LLM 모델을 오픈소스로 처음 공개한 사례이기 때문에 더 이목을 끌었다. Fine-tuning 모델 제외
물론, 라이선스 정책 상 상업이용이 불가능 한 점이 아쉽지만, 이번 모델 공개를 시작으로
다양한 기업에서 한국어 대형 언어모델에 대한 공개와 교류가 이루어지면 좋을 듯 하다.
해당 모델에 대해 관심이 있다면, Reference의 논문을 읽어보는 것을 추천한다.
3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=162327
https://arxiv.org/pdf/2408.03541
'AI' 라벨이 붙은 제품이 더 잘 팔릴까
1. Summary: 최근 코그니전트 리서치라는 회사가 발표한 연구 결과에 따르면,
소비자는 제품에 ‘AI’라는 용어가 표시되어 있으면 구매 의향이 줄었다고 한다.
1000명의 미국 소비자들을 대상으로 실시한 설문조사에서,
전자 제품과 소비자 제품, 의료 등 서비스에 ‘AI 구동” 또는 ‘하이테크’라는 표시가 붙어있으면 구매 의향이 줄었다고 밝혔다.
소비자들은 아직 AI를 믿지 않는다는 것이 그 이유이다. 설문조사 참여자 중 30%만이 생성 AI를 신뢰한다고 밝혔다.
이런 결과는 AI로 인한 정체성 위협과 실존적 두려움에서 비롯된다는 분석이다.
AI로 인해 일자리를 잃을지도 모른다는 불안감이 AI제품을 거부한다는 것이다.
이러한 문제는 최근 애플의 ‘크러시’광고나 구글의 올림픽 광고에서도 드러났다.
기업들은 AI 기술의 장점을 설명하려고 했지만, 대부분 소비자는 이를 인간 창의성에 대한 도전으로 받아들였다는 것이다.
이번 연구에 참여한 도간 거소이 워싱턴주립대학교 교수는 “AI는 인간의 정체성을 위협하며
사람들은 우리보다 더 지적인 것은 아무것도 없다고 생각하기 때문”이라고 밝혔다.
2. Implication: 챗GPT 이후 AI가 인간의 일상에 스며들고 있으나 소비자들은 신중한 태도를 보인 것으로 나타났다.
아직 AI 기술에 대한 신뢰가 충분히 높지 않기 때문에 AI기술이 적용된 제품이나 서비스를 이용하는 것을 주저한다는 해석이다.
최근 많은 기업에서 ‘AI 마케팅’을 경쟁적으로 선보이고 있는데, 이로 인한 역효과를 방지하기 위해서는
AI에 대한 소비자들의 부정적인 인식을 먼저 고려해야 할 것으로 보인다.
A 라벨을 붙이기 위해서는 AI가 인간보다 더 믿을만한 존재라는 신뢰를 먼저 얻어야 한다는 것이 결론이다.
3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=126470
특정 데이터 잊게하는 '언러닝' 사용하면 모델 자체가 멍청해져"
1. Summary: 워싱턴 대학, 프린스턴 대학, 시카고 대학, USC, 구글 연구진이 생성 AI 모델에 대한
언러닝 기술이 기본적인 질문에 대답하는 모델의 성능을 저하시킨다는 연구 결과를 아카이브에 게재했다.
언러닝 기술은 생성 AI 모델이 훈련 데이터에서 수집한 민감한 개인 데이터나 저작권이 있는 자료와 같은
특정하고 바람직하지 않은 정보를 잊도록 하는 데 사용하는 망각 기술이다.
일반적으로 망각 기술은 잊어야 할 데이터에서 이탈하도록 설계된 알고리즘에 의존한다.
모델 예측에 영향을 미쳐 특정 데이터를 출력하지 않도록 만드는 방식이다.
이번 연구에서는 망각 알고리즘의 효과를 평가하기 위해 벤치마크 ‘뮤즈(MUSE)’를 설계, 8개의 오픈 소스 모델을 대상으로 테스트했다.
테스트 결과, 망각 알고리즘이 모델이 특정 정보를 잊게 만들었지만, 모델의 일반적인 질문-응답 능력에도 부정적인 영향을 미쳤다는 것을 발견했다.
망각 기술 적용으로 인해 학습 제거 후에도 관련 일반 지식을 유지하고 있는지에 대한 ‘유용성’이 낮아졌다는 설명이다.
연구진은 "효율적인 망각 알고리즘을 설계하는 것은 매우 어려운 일” 이라며
“상당한 유용성 손실 없이 특정 데이터를 잊을 수 있도록 하는 효율적인 방법은 현재 없다”고 단정했다.
2. Implication: 이번 연구 결과는 기존 언러닝 기술을 사용할 경우 LLM의 기본적인 질문에 대답하는 능력이 훨씬 떨어질 수 있다는 것을 의미한다.
이러한 결과는 LLM에 대한 저작권 이슈에서도 나쁜 소식이 될 전망이다.
예를 들어, 저작권 대상인 해리포터 서적과 자유롭게 사용할 수 있는 ‘해리포터 위키’ 두 가지를 모두 학습한 경우,
망각 알고리즘이 책을 제거하면서 해리포터 위키에 대한 지식에도 영향을 준다는 것이다.
언젠가는 기술적 혁신으로 효율적인 언러닝을 실현할 수 있을 지 모르나,
당분간 공급업체들은 저작권 문제나 개인 정보 보호 등 민감한 정보 처리에 대해 다른 방법을 찾아야 할 것으로 보인다.
.
3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=162065
오픈AI, 개발자를 위한 핵심 LLM 안전 기능 출시
1. Summary: 오픈AI가 JSON 스키마 파일과 일치하는 LLM 출력을 보장하는 'API에서 구조화된 출력' 기능을 발표했다.
이는 개발자들 사이에서 가장 많이 요청된 기능으로, JSON 데이터를 일관되고 안전하게 처리할 수 있게 해준다.
JSON 스키마는 데이터의 규칙성과 유효성을 검사하는 방법으로, 이를 통해 개발자들은 LLM의 출력을 보다 신뢰할 수 있게 되었다.
샘 알트먼 오픈AI CEO는 이 기능이 "대중의 요구"로 출시되었으며, GPT-4o 모델이 100% 완벽한 평가 점수를 기록했다고 언급했다.
이번 업데이트는 GPT-4o, GPT-4o 미니 및 맞춤형 버전에서 사용할 수 있으며, 어시스턴트 API, 배치 API 및 챗 컴플리션 API와 함께 사용할 수 있다.
2. Implication: 사용자 요구에 따라 JSON 스키마와 일치하는 구조화된 출력을 보장하는 새로운 기능이 추가되어 데이터의 일관성과 안전성을 높여,
AI 애플리케이션의 신뢰성을 향상시킬 수 있다. 또한, LLM의 처리 능력과 안전성이 동시에 향상되었으며,
다양한 API와 호환되어 AI의 활용 범위를 넓힐 수 있음을 보여준다.
3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=162322
엔비디아, '라마 3.1 8B' 절반으로 줄인 모델 출시..."4B 모델 중 최강 성능"
1. Summary: 엔비디아가 ‘라마-3.1 8B’ 모델을 압축하는 방식으로 동급 최강 성능의 새로운 소형언어모델(sLM) ‘라마-3.1-미니트론 4B’ 모델을 출시했다.
엔비디아는 더 큰 모델에 구조화된 ‘가중치 프루닝(structured weight pruning)’과 ‘지식 증류(knowledge distillation)’ 기술을 적용해
높은 성능을 유지하면서도 더 큰 모델에 비해 효율적으로 작동하도록 설계했다고 밝혔다.
다양한 벤치마크에서도 뛰어난 성능을 발휘해 다른 sLM을 대부분 크게 능가했다.
특히 추론, 코딩, 수학 분야 벤치마크에서도 더 나은 정확성과 효율성을 입증했다.
이 모델은 처음부터 훈련하는 데에 필요한 토큰 중 일부만을 사용해 뛰어난 성능을 유지하면서 자원 효율성을 고려했다.
이는 상당한 연산 비용 절감으로 이어져, 모델을 배포하기 위한 컴퓨팅 리소스에 제한이 있을 수 있는 시나리오에 매우 적합할 것으로 보인다.
2. Implication: 점점 모델의 성능보다는 제한된 컴퓨팅 리소스에서 모델이 돌아갈 수 있는 효율적인 모델에 집중하는 것을 볼 수 있다.
이는 모델의 성능을 높이는 데에는 큰 차별점을 찾을 수 없기 때문이라고 판단된다.
앞으로 사내에서도 제한된 리소스를 활용해 적용할 수 있는 최대 효율의 모델을 연구하는 것이 중요해질 것으로 보인다.
sLM 모델들을 다양한 서비스에 적용해 고객들이 효과적인 서비스를 가볍게 이용할 수 있도록 제공하는 것이 중요하다.
3. 참고 기사: https://www.aitimes.com/news/articleView.html?idxno=162623
오늘 준비한 8월 AI 이슈들, 어떠셨나요?
AI가 빠르게 발전하는 만큼, AI가 인간의 일자리를 위협한다고 느끼는 사람이 많은데요.
여러분들도 AI 기술이 인간의 창의성에 도전한다고 생각하시나요?
그럼 이만 마무리하며, 다음에도 더 흥미로운 AI 관련 소식들을 발빠르게 가져오겠습니다.
[8월의 AI 트렌드] 과학 연구를 자율 수행하는 AI 에이전트 등장?! (0) | 2024.09.09 |
---|---|
[6월의 AI 트렌드] AI칩 훈련 속도 6개월 사이에 2배, 점점 더 빨라지는 AI! (0) | 2024.07.22 |
[6월의 AI 트렌드] GPT-4o 제친 최강 AI 모델 등장, 클로드 3.5 소네트! (0) | 2024.07.22 |
[5월의 AI 트렌드] 내 손 안의 AI 비서! GPT-4o, 알렉사, 프로젝트 아스트라 (4) | 2024.06.28 |
내 손 안의 AI 비서! GPT-4o, 알렉사, 프로젝트 아스트라 (0) | 2024.05.29 |
댓글 영역