My AI Smarteasy와 글 읽기 – Solar Pro 2 추론모델의 Preview.
Solar Pro 2 추론모델의 Preview.. : 네이버블로그
AI 일타 강사 저스틴의 AI 완전 정복 강의! (Solar Pro 2 추론 모델 프리뷰를 중심으로)
안녕하세요, AI에 대한 뜨거운 열정을 가진 여러분! 일타 강사 저스틴입니다. 오늘은 여러분의 AI 지식을 한 단계 업그레이드해 줄 특별한 강의를 준비했습니다. 바로 업스테이지(Upstage)의 Solar Pro 2 추론 모델 프리뷰를 활용한 AI 완전 정복 프로젝트입니다!
Solar Pro 2, 왜 주목해야 할까요?
Solar Pro 2 Preview는 31B(310억)개의 파라미터를 가진 작은 모델이지만, 놀랍게도 70B(700억) 모델에 필적하는 성능을 자랑합니다. 이는 더 적은 컴퓨팅 자원과 GPU로도 훨씬 강력한 AI 능력을 활용할 수 있다는 뜻이죠. 특히 한국어, 영어, 일본어에 강점을 가지고 있어, 다양한 분야에서 활용 가능성이 무궁무진합니다.
핵심 포인트:
- 작지만 강력하다: 31B 모델로 70B급 성능을 낸다니, 가성비 끝판왕!
- 다국어 능력자: 한국어, 영어, 일본어, 3개 국어 정복!
- 하이브리드 모드: 상황에 따라 채팅 모드와 추론 모드를 선택 가능!
Solar Pro 2, 어떻게 활용할까요?
Solar Pro 2 Preview는 크게 두 가지 모드를 제공합니다.
- 채팅 모드: 빠르고 자연스러운 대화가 필요할 때 사용합니다.
- 추론 모드: 복잡한 문제 해결, QA, 에이전트 계획 등 논리적인 사고가 필요할 때 사용합니다.
특히 추론 모드는 복잡한 질문에 대해 단계별로 생각하는 과정을 보여주기 때문에, AI가 어떻게 문제를 해결하는지 이해하는 데 큰 도움이 됩니다.
예시:
“무슬림 친구에게 스팸 선물세트를 줘도 괜찮을까요?”라는 질문에 Solar Pro 2는 다음과 같이 추론합니다.
추론 과정:
- 스팸은 돼지고기로 만들어졌다는 것을 인지
- 이슬람교에서는 돼지고기를 금지한다는 것을 인지
- 따라서 무슬림 친구에게 스팸 선물세트는 적절하지 않다는 결론 도출
결론:
스팸 선물세트는 무슬림 친구에게 적절하지 않으며, 할랄 인증 제품이나 비식품 선물이 좋은 대안이 될 수 있습니다. 친구의 종교적 신념을 존중하는 마음을 담아 선물을 선택하는 것이 중요합니다.
Solar Pro 2, 무료로 체험해보세요!
Solar Pro 2 Preview는 2025년 7월 15일까지 업스테이지 콘솔에서 무료로 사용해 볼 수 있습니다. 지금 바로 접속해서 여러분의 AI 능력을 마음껏 펼쳐보세요! 업스테이지 콘솔에서 우측 상단의 <unlock 10$> 버튼을 눌러 크레딧을 10$로 만든 뒤 사용하세요.
파이썬 코드를 활용한 Solar Pro 2 완벽 분석
Solar Pro 2를 더욱 깊이 있게 이해하기 위해 파이썬 코드를 활용해 보겠습니다. 아래 코드는 Solar Pro 2 API를 사용하여 질문에 대한 답변을 얻는 기본적인 예제입니다.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
# pip install openai from openai import OpenAI # openai==1.52.2 client = OpenAI( # api_key="UPSTAGE_API_KEY", api_key="본인의 API 키", base_url="https://api.upstage.ai/v1" ) stream = client.chat.completions.create( messages=[ { "role": "user", "content": "무슬림 친구에게 스팸 선물세트를 줘도 괜찮아?" } ], reasoning_effort="high", # 추론 모드 활성화 stream=False, ) # Use with stream=False print(stream.choices[0].message.content) |
위 코드에서 reasoning_effort="high"
는 추론 모드를 활성화하는 중요한 파라미터입니다. 이 파라미터를 통해 Solar Pro 2는 질문에 대한 답변을 도출하는 과정을 더욱 논리적으로 설명해 줍니다. 모델 이름에는 model="solar-pro2-preview"
구문을 사용해야 합니다.
캐싱 전략: 효율적인 API 사용법
API를 사용하다 보면 동일한 요청을 반복하게 되는 경우가 많습니다. 이럴 때 캐싱 전략을 활용하면 API 요청 수를 줄이고 효율성을 높일 수 있습니다. 캐싱은 빈번한 요청 결과를 저장해두고, 반복적인 API 호출 대신 캐시에서 데이터를 제공하는 방식입니다.
아래 코드는 캐싱 전략을 적용한 파이썬 예제입니다.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 |
from openai import OpenAI # openai==1.52.2 import os documents = [ "Solar embeddings are awesome", "Sam is a teacher.", "This is another document", "Hi, how are you?", "Father went into his room", "Mauna Kea is an inactive volcano on the island of Hawaiʻi. Its peak is 4,207.3 m above sea level, making it the highest point in Hawaii and second-highest peak of an island on Earth.", ] client = OpenAI( # api_key="UPSTAGE_API_KEY", api_key= os.environ.get("SOLAR_API_KEY"), base_url="https://api.upstage.ai/v1" ) cache = {} embeddings = [] for i in range(0, len(documents)): document = documents[i] if document not in cache: response = client.embeddings.create( input=document, model="embedding-query" ) cache[document] = response.data[0].embedding embeddings += cache[document] print(f"Successfully processed document {i+1} of {len(documents)}") print(f"Embedding: {embeddings[i]}") |
마무리
오늘은 Solar Pro 2 Preview 모델을 중심으로 AI 기술을 깊이 있게 탐구해 보았습니다. Solar Pro 2는 작은 크기에도 불구하고 뛰어난 성능과 다양한 기능을 제공하며, AI 개발 및 연구에 새로운 가능성을 제시합니다.
2025년 7월 15일까지 무료로 제공되니, 지금 바로 업스테이지 콘솔에 접속하여 Solar Pro 2의 놀라운 성능을 직접 경험해 보시길 바랍니다.