OpenRouter 에서 LLM 모델 사용해보기
LLM 모델을 사용해보고 싶은데 대부분 유료 서비스로 비용을 지불하고 사용해야만 한다.만약 직접 서버를 구축해서 모델을 사용하려고 하더라도 최소 사양의 서버를 구축하는데 상당한 비용이 들기 때문에 쉽지 않다. 직접 구축해서 사용해보고 싶어도 서버 비용이 많이 들게 되고 그렇지 않다면 어느 정도 비용을 지불하고 사용해야 하는데 테스트만 해야하는 입장에서는 상당히 부담스러운 부분이 될 수도 있다. 어떤 모델을 사용해야하고 성능이 얼마나 되는지 가볍게 사용해보고 싶은데 무료로 사용해볼 수 있는 곳은 없을까? 라는 생각에 찾아보다가 OpenRouter 라는 플랫폼을 찾게 되었다. OpenRouter 에 대해서 자세하게 아는 것은 아니지만 내가 직접 사용해본 OpenRouter 에 대해서 정리해보려고 한다. Op..