<aside> <img src="/icons/pisces_brown.svg" alt="/icons/pisces_brown.svg" width="40px" />

Large Language Models

LLM architectures

Encoder

Decoder

Encoder-Decoder

인코더와 디코더는 상황에 따라 다양한 크기로 제공될 수 있음(크기는 모델에 포함된 훈련 가능한 매개변수의 수를 의미)

Prompting

Types of prompting

In-context learning

K-shot prompting

Chain-of-thought prompting

Least to most prompting

Step-back prompting

Issues with prompting

Training

Fine-tuning

Parameter efficient fine-tuning

Soft prompting

Continual pretraining

Decoding

Greedy decoding

Nucleus sampling

Beam search

Retrieval Augmented Generation (RAG)

이 접근 방식에서는 생성형 모델(예: 언어 모델)이 데이터베이스나 텍스트 모음과 같은 대규모 외부 지식 소스에서 관련 정보를 검색하는 검색 메커니즘으로 강화된다. 이렇게 검색된 정보는 모델의 생성 프로세스를 안내하거나 향상하는 데 사용되어 더 많은 정보를 제공하고 상황에 맞게 풍부한 출력을 생성할 수 있게 된다.

RAG를 구현하는 방법에는 시퀀스 모델과 토큰 모델의 두 가지가 있고 RAG 시퀀스 모델은 단락, 문서 또는 긴 콘텐츠와 같은 전체 텍스트 시퀀스를 생성하는 데 중점을 두는 반면 RAG 토큰 모델은 토큰 수준에서 작동하며 일반적으로 텍스트 완성, 질문 답변 또는 대화 생성과 같이 개별 토큰에 대한 세밀한 제어가 필요한 작업에 사용됨

Vector Databases

대부분의 벡터 데이터베이스는 수평적 확장, 향상된 성능 및 저장 용량을 허용하는 대규모 고차원 데이터의 저장 및 계산 요구를 처리하기 위해 분산 아키텍처(distributed architecture)를 사용함.

Semantic Search

OCI Generative AI Service

Pre-trained Models

Fine-Tuning Capabilities

Dedicated Resources

Flexibility and Control