14 LLMs that aren't ChatGPT
ChatGPT가 아닌 14개의 LLM
ChatGPT만이 AI에서 콘텐츠와 통찰력을 생성하는 유일한 옵션이 아닙니다.
다음은 ChatGPT로 돈을 벌 수 있게 하는 14개의 대규모 언어 모델입니다.
ChatGPT isn't your only option for generating content and insight from AI. Here are 14 large language models giving ChatGPT a run for its money.
Contributing writer, InfoWorld | JUL 4, 2023 2:00 AM PDT
![](https://blog.kakaocdn.net/dn/PdmFj/btsq0D6maXG/143TFQxaKfLd9hZ01w8pqK/img.jpg)
오늘날의 최고경영진은 인공지능(AI)을 미래로 보는 상사로 가득 차 있으며, 많은 기술 리더는 ChatGPT를 AI와 동의어로 받아들입니다.
그러나 OpenAI의 주력 프로젝트는 유일한 대규모 언어 모델과는 거리가 멀고, 일부 소프트웨어 프로젝트 또는 도메인의 경우 최선의 선택이 아닐 수도 있습니다.
새로운 경쟁자가 거의 매일 등장하고 있습니다.
말하는 사람에 따라 모두가 지구를 해방하거나 파괴할 차세대 AI 도구를 만들고 싶어하는 것 같습니다.
일부 모델이 다른 모델보다 낫습니까?
아마도.
그들 모두는 당신이 그것들을 더 오래 사용할수록 더 분명해지는 결점, 기이함, 글리치 및 약점을 가지고 있습니다.
제너레이티브 AI는 처음에는 놀랍게 보이지만 시간이 지나면서 이상하고 예측할 수 없는 측면이 나타나기 시작합니다.
Today's C-suite is filled with bosses who see artificial intelligence as the future, and many technology leaders take ChatGPT as synonymous with AI. But OpenAI’s flagship project is far from the only large language model—and for some software projects or domains, it might not even be the best choice. New competitors are popping up almost daily. Everyone, it seems, wants to build the next generation of AI tools that will either liberate the Earth or destroy it, depending on who is talking.
Are some models better than others? Perhaps. All of them have flaws, quirks, glitches, and weaknesses that become more evident the longer you use them. Generative AI seems amazing at first glance, but over time its strange and unpredictable side begins to emerge.
Benchmarking LLMs
LLM 벤치마킹
생성적 AI 응답의 품질을 과학적으로 측정하는 것은 모델의 범위와 사용 방법으로 인해 어렵습니다.
데이터 과학자는 수천 또는 수백만 개의 테스트 질문을 입력하고 응답을 평가할 수 있지만 테스트 세트가 한 가지 유형의 질문에만 초점을 맞추면 결과가 제한됩니다.
Hugging Face's Open LLM Leaderboard와 같은 리소스를 참조하는 것은 흥미롭지만 반드시 정확하지는 않습니다.
Measuring the quality of generative AI responses scientifically is difficult because of the scope of the models and how they're used. A data scientist could feed in thousands or even millions of test questions and evaluate the responses, but the results will be limited if the test sets focus on only one type of question. Consulting a resource like Hugging Face's Open LLM Leaderboard is interesting but not necessarily accurate.
LLM을 벤치마킹하는 정확한 방법을 찾는 것이 어렵다면 최소한 LLM 간 전환이 쉬워지고 있습니다.
OpenLLM 또는 FastChat과 같은 일부 프로젝트는 서로 다른 API 및 인터페이스에도 불구하고 다양한 모델을 연결하는 것을 더 간단하게 만듭니다.
레이어를 함께 연결하고 때로는 모델을 병렬로 실행할 수도 있습니다.
백그라운드에서 큰 질문은 비용입니다.
모두가 폭발적인 관심과 투자를 누리고 있지만 대규모 언어 모델을 구축하는 데는 몇 달 또는 몇 년이 걸릴 수 있습니다.
팀은 먼저 훈련 데이터를 수집한 다음 전기를 빨아들이는 값비싼 하드웨어를 통해 데이터를 푸시합니다.
마지막으로 모델을 생산합니다.
이 작업을 수익화하고 유지하는 가장 좋은 방법은 진화하는 질문입니다.
일부 조직은 결과를 오픈 소스로 실험하고 있는 반면, 다른 조직은 자체 청구 모델을 사용하여 기꺼이 서비스에 의존하고 있습니다.
오픈소스LLM은 진정한 선물이 될 수 있지만 모델을 배포하고 계속 실행하는 작업을 처리할 수 있는 경우만 가능합니다.
ChatGPT가 아닌 14개의 대규모 언어 모델을 살펴보세요.
프로젝트에 필요한 것일 수도 있고 아닐 수도 있습니다.
알 수 있는 유일한 방법은 프롬프트를 보내고 결과를 신중하게 평가하는 것입니다.
If finding a precise way to benchmark LLMs is tough, at least switching between them is getting easier. Some projects like OpenLLM or FastChat make it simpler to wire up various models despite their different APIs and interfaces. You can stitch together the layers and sometimes even run the models in parallel.
A big question in the background is cost. While everyone is enjoying the explosion of interest and investment, building a large language model can take months or even years. Teams first assemble the training data, then they push the data through expensive hardware that sucks down electricity. Finally, they produce the model. The best way to monetize and sustain this work is an evolving question.
Some organizations are experimenting with open sourcing their results, while others happily rely on services with their own billing models. Open source LLMs can be a real gift—but only if you’re able to handle the work of deploying the model and keeping it running.
Here's a look at 14 large language models that aren’t ChatGPT. They may or may not be just what your project needs. The only way to know is to send them your prompts and carefully evaluate the results.
Llama
Facebook(현재 Meta)은 이 기본 LLM을 만든 다음 "개방 과학에 대한 약속"의 일부로 출시했습니다.
누구나 Llama를 다운로드하여 특정 응용 프로그램에 대해 보다 미세하게 조정된 모델을 만들기 위한 기반으로 사용할 수 있습니다.(Alpaca 및 Vicuna) 둘 다 Llama 위에 구축되었습니다.)
이 모델은 4가지 다른 크기로도 제공됩니다.
70억 개의 매개변수만 있는 더 작은 버전은 이미 예상치 못한 곳에서 사용되고 있습니다.
심지어 한 개발자는 Llama를 Raspberry Pi에서, 단 4GB의 RAM으로 실행한다고 주장하기도 합니다.
Facebook (now Meta) created this foundational LLM and then released it as part of its stated “commitment to open science." Anyone can download Llama and use it as a foundation for creating more finely-tuned models for particular applications. (Alpaca and Vicuna were both built on top of Llama.) The model is also available in four different sizes. The smaller versions, with only 7 billion parameters, are already being used in unlikely places. One developer even claims to have Llama running on a Raspberry Pi, with just 4GB of RAM.
Alpaca
Stanford 연구원 몇 명이 Meta의 Llama 7B를 가져와 ChatGPT와 같은 지침 따르기 모델을 모방하는 일련의 프롬프트에 대해 교육했습니다.
이 약간의 미세 조정을 통해 Llama LLM에 인코딩된 지식을 일반 사람이 질문하고 지침을 제공하여 액세스할 수 있는 무언가로 여는 LLM인 Alpaca 7B가 생성되었습니다.
일부 추정에 따르면 경량 LLM은 600달러 미만의 하드웨어에서 실행할 수 있습니다.
Alpaca 7B의 제작자는 트레이닝 세트와 이를 구축한 코드를 배포하고 있습니다.
누구나 모델을 복제하거나 다른 세트에서 새로운 것을 만들 수 있습니다.
Several Stanford researchers took Meta’s Llama 7B and trained it on a set of prompts that mimic the instruction-following models like ChatGPT. This bit of fine-tuning produced Alpaca 7B, an LLM that opens up the knowledge encoded in the Llama LLM into something that the average person can access by asking questions and giving instructions. Some estimates suggest that the lightweight LLM can run on less than $600 worth of hardware.
Alpaca 7B's creators are distributing the training set and the code that built it. Anyone can duplicate the model or create something new from a different set.
Vicuna
Llama의 또 다른 후손은 LMSYS.org의 Vicuna입니다.
Vicuna 팀은 ShareGPT에서 70,000개의 서로 다른 대화로 구성된 훈련 세트를 수집하고 다단계 상호 작용 및 지침 따르기 기능을 만드는 데 특히 주의를 기울였습니다.
Vicuna-13b 또는 Vicuna-7b로 제공되는 이 LLM은 기본 대화형 채팅을 위한 가장 가격 경쟁력 있는 개방형 솔루션 중 하나입니다.
Another descendant of Llama is Vicuna from LMSYS.org. The Vicuna team gathered a training set of 70,000 different conversations from ShareGPT and paid particular attention to creating multi-round interactions and instruction-following capabilities. Available as either Vicuna-13b or Vicuna-7b, this LLM is among the most price-competitive open solutions for basic interactive chat.
NodePad
모든 사람이 LLM이 "언어적으로 정확한" 텍스트를 생성하는 방식에 열광하는 것은 아닙니다. NodePad의 제작자는 텍스트의 품질이 사용자가 기본 사실을 다시 확인하지 못하게 하는 경향이 있다고 생각합니다. 멋진 UI가 있는 LLM은 "의도하지 않게 결과를 미화하여 사용자가 이러한 문제를 예상하기 어렵게 만드는 경향이 있습니다." NodePad는 사용자가 간신히 훑어볼 수 있는 세련된 쓰기 샘플을 생성하지 않고 탐색과 아이디어를 육성하도록 설계되었습니다. 이 LLM의 결과는 완성된 글이 아니라 많은 "마인드 매핑 도구"에서 볼 수 있는 노드와 연결로 나타납니다. 사용자는 프레젠테이션에서 길을 잃지 않고 훌륭한 아이디어를 얻기 위해 모델의 백과사전적 지식을 활용할 수 있습니다.
Not everyone is enthralled with the way that LLMs generate “linguistically accurate” text. The creators of NodePad believe that the quality of the text tends to distract users from double-checking the underlying facts. LLMs with nice UIs, “tend to unintentionally glorify the result making it more difficult for users to anticipate these problems.” NodePad is designed to nurture exploration and ideation without producing polished writing samples that users will barely skim. Results from this LLM appear as nodes and connections, like you see in many “mind mapping tools,” and not like finished writing. Users can tap the model's encyclopedic knowledge for great ideas without getting lost in presentation.
Orca
1세대 대형 언어 모델은 크기에 따라 성공했으며 시간이 지남에 따라 점점 더 커졌습니다. Microsoft 연구원 팀의 Orca는 이러한 경향을 역전시킵니다. 이 모델은 130억 개의 매개변수만 사용하므로 평균 머신에서 실행할 수 있습니다. Orca의 개발자는 "설명 추적", "단계별 사고 프로세스" 및 "지침"을 사용하도록 훈련 알고리즘을 향상하여 이러한 위업을 달성했습니다. AI에게 원재료에서 배우도록 요청하는 대신 Orca는 가르치기 위해 설계된 훈련 세트를 받았습니다. 즉, 인간과 마찬가지로 AI는 깊은 곳에 던져지지 않을 때 더 빨리 학습합니다. 초기 결과는 유망했으며 Microsoft 팀은 모델이 훨씬 더 큰 모델만큼 성능이 우수함을 시사하는 벤치마크를 제공했습니다.
The first generation of large language models succeeded by size, growing larger and larger over time. Orca, from a team of researchers at Microsoft, reverses that trend. The model uses only 13 billion parameters, making it possible to run on average machines. Orca's developers achieved this feat by enhancing the training algorithm to use “explanation traces,” “step-by-step thought processes,” and “instructions.” Instead of just asking the AI to learn from raw material, Orca was given a training set designed to teach. In other words, just like humans, AIs learn faster when they’re not thrown into the deep end. The initial results are promising and Microsoft’s team offered benchmarks that suggest that the model performs as well as much larger models.
Jasper
Jasper의 제작자는 현명한 제너럴리스트를 만들고 싶지 않았습니다. 그들은 콘텐츠 제작을 위한 집중된 기계를 원했습니다. 개방형 채팅 세션 대신 시스템은 부동산 목록 작성 또는 Amazon과 같은 사이트의 제품 기능 작성과 같은 특정 작업을 위해 설계된 50개 이상의 템플릿을 제공합니다. 유료 버전은 특히 일관된 어조로 마케팅 카피를 만들고자 하는 기업을 대상으로 합니다.
The creators of Jasper didn’t want to build a wise generalist; they wanted a focused machine for creating content. Instead of just an open-ended chat session, the system offers more than 50 templates designed for particular tasks like crafting a real estate listing or writing product features for a site like Amazon. The paid versions are specifically aimed at businesses that want to create marketing copy with a consistent tone.
Claude
Anthropic은 조사에서 고객 서비스에 이르기까지 비즈니스의 많은 텍스트 기반 집안일을 처리할 수 있는 유용한 조수로 Claude를 만들었습니다. 프롬프트가 들어오고 답변이 나옵니다. Anthropic은 의도적으로 긴 프롬프트를 허용하여 더 복잡한 지침을 장려하여 사용자가 결과를 더 잘 제어할 수 있도록 합니다. Anthropic은 현재 두 가지 버전을 제공합니다. Claude-v1이라는 전체 모델과 훨씬 저렴한 Claude Instant라는 저렴하고 단순화된 모델입니다. 첫 번째는 더 복잡하고 구조화된 추론이 필요한 작업을 위한 것이고 두 번째는 분류 및 중재와 같은 간단한 작업에 더 빠르고 좋습니다.
Anthropic created Claude to be a helpful assistant who can handle many of a business's text-based chores, from research to customer service. In goes a prompt and out comes an answer. Anthropic deliberately allows long prompts to encourage more complex instructions, giving users more control over the results. Anthropic currently offers two versions: the full model called Claude-v1 and a cheaper, simplified one called Claude Instant, which is significantly less expensive. The first is for jobs that need more complex, structured reasoning while the second is faster and better for simple tasks like classification and moderation.
Cerebras
특수 하드웨어와 일반 모델이 함께 진화하면 매우 빠르고 효율적인 솔루션을 얻을 수 있습니다. Cerebras는 LLM on Hugging Face를 로컬에서 실행하려는 사용자를 위해 작은 크기(1억 1,100만 매개변수)부터 큰 크기(130억 매개변수)까지 다양한 크기로 제공합니다. 그러나 많은 사람들은 대규모 교육 세트를 통해 쟁기질하는 데 최적화된 Cerebras의 자체 웨이퍼 규모 통합 프로세서에서 실행되는 클라우드 서비스를 사용하기를 원할 것입니다.
When specialized hardware and a general model co-evolve, you can end up with a very fast and efficient solution. Cerebras offers its LLM on Hugging Face in a variety of sizes from small (111 million parameters) to larger (13 billion parameters) for those who want to run it locally. Many, though, will want to use the cloud services, which run on Cerebras’s own wafer-scale integrated processors optimized for plowing through large training sets.
Falcon
실물 크기의 Falcon-40b와 더 작은 Falcon-7b는 아랍 에미레이트의 TII(Technology Innovation Institute)에서 제작했습니다. 그들은 추론 개선에 중점을 두고 RefinedWeb의 일반적인 예제 집합에 대해 Falcon 모델을 교육했습니다. 그런 다음 돌아서서 Apache 2.0과 함께 출시하여 실험에 사용할 수 있는 가장 개방적이고 제한 없는 모델 중 하나로 만들었습니다.
The full-sized Falcon-40b and the smaller Falcon-7b were built by the Technology Innovation Institute (TII) in the United Arab Emirates. They trained the Falcon model on a large set of general examples from the RefinedWeb, with a focus on improving inference. Then, they turned around and released it with the Apache 2.0, making it one of the most open and unrestricted models available for experimentation.
ImageBind
많은 사람들이 메타를 소셜 미디어를 지배하는 대기업으로 생각하지만, 메타는 오픈 소스 소프트웨어 개발의 강력한 힘이기도 합니다. AI에 대한 관심이 급증하고 있는 지금, 회사가 많은 자체 혁신을 공유하기 시작한 것은 놀라운 일이 아닙니다. ImageBind는 AI가 한 번에 다양한 유형의 데이터를 생성하는 방법을 보여주기 위한 프로젝트입니다. 이 경우 텍스트, 오디오 및 비디오입니다. 다시 말해, 생성적 AI는 허용만 한다면 가상의 세계 전체를 하나로 엮을 수 있습니다.
Many think of Meta as a big company that dominates social media, but it’s also a powerful force in open source software development. Now that interest in AI is booming, it shouldn’t be a surprise that the company is starting to share many of its own innovations. ImageBind is a project that’s meant to show how AI can create many different types of data at once; in this case, text, audio, and video. In other words, generative AI can stitch together an entire imaginary world, if you let it.
Gorilla
생성 AI를 사용하여 코드를 작성하는 것에 대해 많이 들었을 것입니다. 결과는 종종 표면적으로는 인상적이지만 면밀히 검토하면 심각한 결함이 있습니다. 구문은 정확할 수 있지만 API 호출이 모두 잘못되었거나 존재하지 않는 함수를 지시할 수도 있습니다. Gorilla는 프로그래밍 인터페이스로 더 나은 작업을 수행하도록 설계된 LLM입니다. 제작자는 Llama로 시작한 다음 문서에서 직접 스크랩한 더 깊은 프로그래밍 세부 정보에 중점을 두고 미세 조정했습니다. Gorilla 팀은 테스트 성공을 위한 자체 API 중심 벤치마크 세트도 제공합니다. 이는 코딩 지원을 위해 AI에 의존하려는 프로그래머에게 중요한 추가 사항입니다.
You've probably been hearing a lot about using generative AI to write code. The results are often superficially impressive but deeply flawed on close examination. The syntax may be correct, but the API calls are all wrong, or they may even be directed at a function that doesn’t exist. Gorilla is an LLM that’s designed to do a better job with programming interfaces. Its creators started with Llama and then fine-tuned it with a focus on deeper programming details scraped directly from documentation. Gorilla's team also offer its own API-centric set of benchmarks for testing success. That's an important addition for programmers who are looking to rely on AIs for coding assistance.
Ora.ai
Ora는 사용자가 특정 작업에 최적화된 자신만의 대상 챗봇을 만들 수 있는 시스템입니다. LibrarianGPT는 책의 직접적인 구절로 모든 질문에 답하려고 노력할 것입니다. 예를 들어 칼 세이건 교수는 세이건이 수십억 년 동안 살 수 있도록 그의 모든 저술에서 끌어오는 봇입니다. 나만의 봇을 만들거나 이미 다른 사람이 만든 수백 개의 봇 중 하나를 사용할 수 있습니다.Ora is a system that allows users to create their own targeted chatbots that are optimized for a particular task. LibrarianGPT will try to answer any question with a direct passage from a book. Professor Carl Sagan, for example, is a bot that draws from all of Sagan's writings so he can live on for billions and billions of years. You can create your own bot or use one of the hundreds created by others already.
1-click chatbot | ora.ai
Your companions for fun, productivity, and business.
ora.ai
AgentGPT
애플리케이션에 필요한 모든 코드를 함께 연결하는 또 다른 도구는 AgentGPT입니다. 휴가 계획이나 게임 유형의 코드 작성과 같은 작업을 처리하기 위해 보낼 수 있는 에이전트를 생성하도록 설계되었습니다. 대부분의 기술 스택에 대한 소스 코드는 GPL 3.0에서 사용할 수 있습니다. 서비스로 사용할 수 있는 실행 중인 버전도 있습니다.
Another tool that stitches together all the code necessary for an application is AgentGPT. It’s designed to create agents that can be sent to tackle jobs like planning a vacation or write the code for a type of game. The source code for much of the tech stack is available under GPL 3.0. There's also a running version available as a service.
FrugalGPT
이것은 특정 질문에 답할 수 있는 가장 저렴한 모델을 찾기 위한 신중한 전략만큼 다른 모델이 아닙니다. FrugalGPT를 개발한 연구자들은 많은 질문에 가장 크고 가장 비싼 모델이 필요하지 않다는 것을 인식했습니다. 그들의 알고리즘은 가장 간단한 것으로 시작하여 좋은 답을 찾을 때까지 계단식으로 LLM 목록을 위로 이동합니다. 연구원의 실험은 많은 질문에 실제로 정교한 모델이 필요하지 않기 때문에 이러한 신중한 접근 방식이 비용의 98%를 절약할 수 있음을 시사합니다.
This isn’t a different model as much as a careful strategy for finding the cheapest possible model to answer a particular question. The researchers who developed FrugalGPT recognized that many questions don’t need the biggest, most expensive model. Their algorithm starts with the simplest and moves up a list of LLMs in a cascade until it's found a good answer. The researcher’s experiments suggest that this careful approach may save 98% of the cost because many questions do not actually need a sophisticated model.
댓글