Think 뉴스레터
프롬프트 이상을 생각하고 전체 맥락 파악
Think Newsletter를 통해 업계 뉴스, AI 툴, 프롬프트 엔지니어링 관련 최신 트렌드 소식을 받아보세요. 새로운 설명서, 튜토리얼, 전문가 인사이트도 이메일로 보내드립니다. IBM 개인정보 보호정책을 참고하세요.
프롬프트 엔지니어링 기법은 AI 모델, 특히 openAI의 GPT-4, Google Gemini 또는 IBM Granite와 같은 대규모 언어 모델(LLM)에 제공되는 프롬프트, 입력 쿼리 또는 지침을 설계하고 구성하는 데 사용되는 전략입니다. 이러한 기술의 목적은 생성형 AI(gen AI) 시스템이 정확하고 관련성이 높으며 상황에 맞는 응답을 생성하도록 안내하여 사용자가 원하는 아웃풋을 효과적으로 얻을 수 있도록 하는 것입니다.
고급 머신 러닝 알고리즘을 기반으로 구축된 대규모 언어 모델은 인간과 유사한 텍스트를 이해하고 생성할 수 있습니다. 프롬프트 엔지니어링은 이 기능을 활용하여 모델이 요약, 번역, 창의적 글쓰기 또는 문제 해결과 같은 복잡한 작업을 보다 정밀하게 수행하는 데 도움이 되는 입력을 생성합니다. 사용자는 다양한 프롬프트 구조를 실험함으로써 LLM의 동작에 영향을 주어 다양한 애플리케이션에서 성능을 최적화할 수 있습니다.
생성형 AI가 다양한 영역에서 계속해서 중요한 역할을 함에 따라, 생성형 AI의 잠재력을 최대한 활용하고 특정 요구 사항을 효율적으로 충족하도록 AI 모델을 맞춤화하려면 이제 프롬프트 엔지니어링을 이해하는 것이 필수입니다.
프롬프트는 응답을 생성하기 위해 대규모 언어 모델과 같은 AI 모델에 제공되는 입력 텍스트 또는 쿼리입니다. 이는 모델의 동작을 안내하고, 작업을 정의하고, 상호 작용에 대한 컨텍스트를 설정하는 기본 메커니즘 역할을 합니다. 프롬프트 설계는 아웃풋의 품질과 관련성에 큰 영향을 미치므로 특정 작업에 적합한 유형의 프롬프트를 선택하는 것이 필수적입니다.
AI 모델에서 최상의 결과를 얻으려면 다양한 작업과 목표에 맞게 프롬프트를 구성할 수 있는 다양한 방법을 이해하는 것이 중요합니다. 프롬프트를 구성하는 방법에는 직접 명령, 개방형 명령, 작업별 명령의 세 가지 기본 방법이 있습니다.
직접 지시는 AI에게 무엇을 해야 하는지 정확히 알려주는 명확하고 구체적인 명령입니다. 이러한 프롬프트는 사용자가 아웃풋에 대해 명확한 기대를 갖는 간단한 작업에 이상적입니다. 프롬프트는 모델이 명시적인 지침을 구문 분석하고 명령과 긴밀하게 일치하는 응답을 생성하는 능력에 의존합니다. 지침이 상세할수록 아웃풋이 기대에 부응할 가능성이 높아집니다.
예시:
이 경우 AI는 텍스트를 생성하기 위한 정확한 형식인 [시]와 주제인 [자연]을 알고 있습니다.
개방형 지침은 덜 제한적이며 AI가 더 넓은 아이디어를 탐색하거나 창의적이고 해석적인 응답을 제공하도록 장려합니다. 이러한 프롬프트는 사용자가 아웃풋의 다양성과 독창성을 중시하는 브레인스토밍, 스토리텔링 또는 탐색적 토론에 유용합니다. 개방형 프롬프트는 제약을 두지 않고도 모델의 생성 능력을 활용합니다. 이 모델은 훈련 데이터를 사용하여 프롬프트에 대한 최상의 접근 방식을 추론하며, 이는 다양하거나 예상치 못한 결과를 생성할 수 있습니다.
예시:
여기에서 AI는 우주의 기원, 구조, 과학 이론 등 우주의 어떤 측면을 논할지를 자유롭게 결정할 수 있습니다.
작업별 지침은 번역, 요약 또는 계산과 같은 정확한 목표지향적 작업을 위해 설계되었습니다. 이러한 프롬프트는 명확하게 작성되는 경우가 많으며 정확한 응답을 보장하는 데 도움이 되는 추가 컨텍스트나 예시가 포함될 수 있습니다. 작업별 프롬프트는 모델이 특수 작업을 이해하는 데 활용합니다. 여기에는 퓨샷 프롬프트(예시 제공) 또는 제로샷 프롬프트(예시를 제공하지 않지만 모델의 사전 학습된 지식에 의존)와 같은 고급 프롬프트 기술을 통합할 수 있습니다.
예시:
모델은 언어 번역 작업과 특정 입력 텍스트를 모두 이해하여 원하는 아웃풋인 "Bonjour"를 생성할 수 있습니다.
사용자는 이러한 유형의 프롬프트와 그 이면의 기술적 뉘앙스를 이해함으로써 AI 모델을 효과적으로 안내하는 프롬프트를 만들어 응답의 품질과 관련성을 최적화할 수 있습니다.
Think 뉴스레터
Think Newsletter를 통해 업계 뉴스, AI 툴, 프롬프트 엔지니어링 관련 최신 트렌드 소식을 받아보세요. 새로운 설명서, 튜토리얼, 전문가 인사이트도 이메일로 보내드립니다. IBM 개인정보 보호정책을 참고하세요.
프롬프트 엔지니어링은 AI 모델의 효율성을 극대화하기 위해 다양한 작업과 목표에 맞는 다양한 기술을 사용합니다. 다음은 몇 가지 주요 기술이며, 각 기술은 특정 결과를 달성하도록 설계된 프롬프트 예시와 함께 설명됩니다.
다양한 프롬프트 엔지니어링의 효과를 입증하기 위해 기후 변화에 대한 단일 작업을 중심 사용 사례로 살펴보겠습니다. 이 작업은 다음과 같이 구성됩니다.
각 기술은 작업에 다르게 접근하여 다양한 수준의 지침, 복잡성 및 방법론을 제공합니다. 아래에서는 이러한 기술을 이 사용 사례에 어떻게 적용할 수 있는지 살펴보고, 고유한 능력을 강조하도록 맞춤화된 프롬프트를 제공합니다.
제로샷 프롬프트는 사전 예시나 지침을 제공하지 않고 모델에게 작업을 수행하도록 요청하는 것을 의미합니다. 이 프롬프트는 AI의 사전 훈련된 지식에 전적으로 의존하여 프롬프트를 해석하고 응답합니다.[1]
프롬프트 예시:
모델에는 사전 예제나 추가 컨텍스트가 제공되지 않으며, 아웃풋을 생성하기 위해 사전 훈련된 지식에만 의존해야 합니다.
퓨샷 프롬프트는 모델에게 작업을 보여주기 위해 프롬프트 내에 소수의 예시를 포함합니다. 이 접근 방식은 모델이 컨텍스트와 예상 아웃풋을 더 잘 이해하는 데 도움이 됩니다.[2]
프롬프트 예시:
다른 주제를 설명하는 방법에 대한 몇 가지 예를 제공함으로써 모델은 기후 변화 설명에 대해 기대되는 어조와 단순성 수준을 안내받습니다.
CoT 프롬프트는 모델이 문제를 단계별로 추론하도록 장려하고 문제를 보다 세부적인 구성 요소로 나누어 논리적 결론에 도달합니다.[3]
프롬프트 예시:
모델은 명확성을 위해 설명을 더 세부적이고 논리적인 부분으로 나누어 단계별로 생각하도록 장려됩니다.
메타 프롬프트에는 작업을 더 잘 수행하기 위해 모델에 프롬프트를 생성하거나 개선하도록 요청하는 작업이 포함됩니다. 이 기술은 모델의 자체 지시 기능을 활용하여 아웃풋 품질을 향상시킬 수 있습니다.[4]
프롬프트 예시:
이 모델은 주제를 설명하기 전에 자체 프롬프트를 생성하여 잠재적으로 아웃풋의 관련성과 품질을 개선합니다.
자체 일관성은 모델에서 여러 개의 독립적인 생성을 사용하여 가장 일관되거나 정확한 응답을 식별합니다. 추론이나 해석이 필요한 작업에 특히 유용합니다.[5]
프롬프트 예시:
모델은 여러 개의 독립적인 응답을 생성하고 가장 일관성 있거나 조리 있는 응답을 최종 아웃풋으로 선택합니다.
이 기술에는 모델이 주요 작업을 처리하기 전에 배경 지식을 생성하도록 요청하여 정보에 입각한 정확한 응답을 생성하는 능력을 향상시키는 작업이 포함됩니다.[6]
프롬프트 예시:
이 모델은 더 많은 정보에 입각한 설명을 제공하기 위해 배경 지식(예: 온실 가스, 지구 온난화)을 먼저 생성합니다.
프롬프트 체이닝은 여러 프롬프트를 연결하는 것으로, 한 프롬프트의 아웃풋이 다음 프롬프트의 입력으로 사용됩니다. 이 기술은 다단계 프로세스에 적합합니다.
프롬프트 예시:
이전 응답을 기반으로 하는 다음 프롬프트:
이전 응답을 기반으로 하는 다음 프롬프트:
작업은 더 세분화된 프롬프트 체인으로 나뉘며, 각 단계의 아웃풋은 더욱 체계적인 설명을 위해 다음 단계로 전달됩니다.
생각의 나무 프롬프팅은 모델이 최종 결과물에 도달하기 전에 추론이나 아이디어의 여러 지점을 탐색하도록 장려합니다.[7][8]
프롬프트 예시:
이 모델은 설명에 대한 여러 접근 방식을 탐색하고 가장 효과적인 접근 방식을 선택하여 균형 잡힌 아웃풋을 제공합니다.
검색 증강 생성(RAG)은 외부 정보 검색과 생성형 AI를 결합하여 최신 또는 도메인별 지식을 기반으로 응답을 생성합니다.[9]
프롬프트 예시:
이 모델은 생성 능력과 외부 지식을 결합하여 정보에 입각한 설명을 생성합니다.
이 기법은 추론 기능을 외부 도구 또는 애플리케이션 프로그래밍 인터페이스(API)와 통합하여 모델이 계산기나 검색 엔진과 같은 리소스를 사용할 수 있도록 합니다.[10]
프롬프트 예시:
이 모델은 추론을 외부 도구(예: 계산기 또는 API)와 통합하여 데이터를 분석하고 데이터 기반 설명을 제공합니다.
이 방법에는 AI 자체를 사용하여 특정 작업에 대한 프롬프트를 생성 및 최적화하여 효과적인 지침을 작성하는 프로세스를 자동화하는 작업이 포함됩니다.
프롬프트 예시:
이 모델은 응답 품질을 향상시키기 위해 최적화된 프롬프트 생성을 자동화합니다.
능동 프롬프트는 모델의 아웃풋을 기반으로 프롬프트를 동적으로 조정하여 더 나은 결과를 위해 입력을 구체화합니다.[11]
초기 프롬프트
후속 프롬프트
프롬프트는 중간 아웃풋을 기반으로 동적으로 발전하여 반복을 통해 응답을 개선합니다.
방향 자극 프롬프트(DSP)는 방향 신호를 사용하여 모델을 특정 유형의 반응 또는 관점으로 유도합니다.[12]
프롬프트 예시:
모델이 특정 관점이나 어조로 조정되며, 이는 설명의 프레이밍에 영향을 미칩니다.
PALM은 프로그래밍 능력을 통합하여 모델의 추론 및 계산 기술을 강화합니다.[13]
프롬프트 예시:
모델이 프로그래밍과 언어 생성을 결합하여 시각화와 설명을 모두 제공합니다.
반사를 사용하면 모델이 이전 아웃풋을 평가하고 정확성이나 일관성을 향상시키기 위해 아웃풋을 개선할 수 있습니다.[15]
프롬프트 예시:
모델이 이전 아웃풋을 반영하고 이를 반복적으로 개선합니다.
이 기술은 텍스트, 이미지 또는 오디오와 같은 여러 양식에 걸쳐 생각의 연결고리 추론을 통합합니다.[16]
프롬프트 예시:
이 모델은 포괄적인 설명을 제공하기 위해 여러 양식(텍스트 및 이미지)에 걸쳐 추론을 통합합니다.
그래프 프롬프트는 그래프 기반 구조를 활용하여 개념 또는 데이터 포인트 간 복잡한 관계를 구성하고 추론합니다.
프롬프트 예시:
이 모델은 그래프 기반 추론을 사용하여 데이터 포인트를 연결하고 통찰력 있는 설명을 생성합니다.
따라서 단일 작업에 다양한 프롬프트 엔지니어링 기법을 어떻게 적용할 수 있는지 확인할 수 있습니다. 제로샷, 퓨샷, 생각의 연결고리, 생각의 나무와 같은 방법에서 동일한 작업을 사용함으로써 각 기술이 어떻게 작업을 다르게 구성하고 AI가 고유한 응답을 생성하도록 유도하는지 확인할 수 있습니다. 이러한 사례는 다양한 문제를 해결하는 데 있어 프롬프트 엔지니어링의 유연성과 창의성을 보여줍니다. 독자들은 IBM Granite 모델, OpenAI의 ChatGPT, Google의 Bard, Anthropic의 Claude, Cohere 또는 AI21 Labs의 Jurassic과 같은 다양한 AI 모델 또는 애플리케이션으로 이러한 프롬프트 예제를 사용해 보는 것이 좋습니다. 이를 통해 사용자는 아웃풋이 어떻게 달라지는지 확인하고 자신의 필요에 가장 적합한 선택지를 찾을 수 있습니다.
프롬프트 엔지니어링 기술은 강력하지만 몇 가지 문제가 있습니다. 일관되게 정확한 아웃풋을 생성하는 효과적인 프롬프트를 만드는 것은 어려울 수 있으며, 특히 복잡한 추론, 상식적인 이해 또는 섬세한 응답이 필요한 작업의 경우 더욱 그러합니다. 자주 발생하는 또 다른 문제는 생성형 AI 모델이 부정확하거나 완전히 조작된 정보를 생성하는 할루시네이션입니다. 구조화된 템플릿에 의존하거나 모델을 미세 조정하면 이러한 문제 중 일부를 완화하는 데 도움이 될 수 있지만, 다양한 시나리오에서 작동하는 프롬프트를 설계하는 것은 여전히 시행착오로 남아 있습니다. 또한 인공 지능의 일반적인 능력과 작업별 목표의 균형을 맞추는 것은 까다로울 수 있으며, 특히 전문화된 작업이나 도메인별 작업의 경우 더욱 그렇습니다.
프롬프트 엔지니어링 기법은 다양한 분야에서 광범위하게 응용되고 있습니다. 챗봇에서 프롬프트 엔지니어링 기법은 생성된 응답을 개선하여 실시간으로 사용자 상호 작용을 향상하는 데 도움이 됩니다. 개발자의 경우 프롬프트는 코드 스니펫을 생성하거나 프로그래밍 개념에 관한 튜토리얼을 만드는 데 도움이 될 수 있습니다. 교육에서는 설명을 단순화하거나 상세한 추론으로 수학 문제를 풀 수 있습니다. 기업은 특정 시나리오에 맞게 조정된 통찰력 있는 AI 아웃풋을 생성하여 의사 결정에 프롬프트 엔지니어링을 사용합니다. 이러한 기술은 콘텐츠 제작, 고객 지원 및 워크플로에 대규모로 사용되어 AI 시스템을 보다 효율적이고 다양한 작업에 적응할 수 있게 만듭니다.
프롬프트 엔지니어링 기술의 미래는 다양한 애플리케이션에서 보다 정확하고 관련성이 높은 응답을 보장할 수 있도록 자연어 처리를 발전시키는 데 달려 있습니다. AI 모델이 발전함에 따라 추론 능력이 향상되어 최소한의 프롬프트로 더 복잡한 작업을 처리할 수 있게 될 것입니다. 또한 프롬프트 생성을 자동화하고 최적화하여 다양한 도메인의 사용자를 위해 AI와의 상호 작용을 보다 직관적이고 효율적이며 개인화할 수 있는 보다 스마트한 도구와 프레임워크의 개발을 기대할 수 있습니다.
프롬프트 엔지니어링 기술은 AI 상호 작용을 최적화하고 대규모 언어 모델의 잠재력을 최대한 활용하는 데 필수적입니다. 이러한 기술은 제로샷, 퓨샷, 사고 체인 및 사고의 트리와 같은 구조화된 접근 방식을 사용하여 AI가 챗봇부터 의사 결정 및 교육에 이르기까지 광범위한 작업을 처리할 수 있도록 합니다. 할루시네이션 및 효과적인 프롬프트 설계와 같은 문제에도 불구하고, 프롬프트 엔지니어링의 애플리케이션은 여러 영역으로 계속 확장되어 더 스마트하고 맞춤화된 AI 아웃풋을 제공하고 있습니다. 자연어 처리와 추론 능력이 발전함에 따라 프롬프트 엔지니어링의 미래는 훨씬 더 큰 효율성과 적응성을 약속합니다. 독자는 다양한 AI 모델에서 이러한 기술을 실험하여 능력을 탐색하고 결과를 개선할 수 있습니다.
[1] Wei, J., Bosma, M., Zhao, V.Y., Guu, K., Yu, A.W., Lester, B., Du, N., Dai, A.M. and Le, Q.V., 2021년. Finetuned language models are zero-shot learners. arXiv preprint arXiv:2109.01652.
[2] Touvron, H., Lavril, T., Izacard, G., Martinet, X., Lachaux, M.A., Lacroix, T., Rozière, B., Goyal, N., Hambro, E., Azhar, F. and Rodriguez, A., 2023년. Llama: Open and efficient foundation language models. arXiv preprint arXiv:2302.13971.
[3] Wei, J., Wang, X., Schuurmans, D., Bosma, M., Xia, F., Chi, E., Le, Q.V. and Zhou, D., 2022년. Chain-of-thought prompting elicits reasoning in large language models. Advances in neural information processing systems, 35, pp.24824-24837.
[4] Zhang, Y., Yuan, Y. and Yao, A.C.C., 2023년. Meta prompting for ai systems. arXiv preprint arXiv:2311.11482.
[5] Wang, X., Wei, J., Schuurmans, D., Le, Q., Chi, E., Narang, S., Chowdhery, A. and Zhou, D., 2022년. Self-consistency improves chain of thought reasoning in language models. arXiv preprint arXiv:2203.11171.
[6] Liu, J., Liu, A., Lu, X., Welleck, S., West, P., Bras, R.L., Choi, Y. and Hajishirzi, H., 2021년. Generated knowledge prompting for commonsense reasoning. arXiv preprint arXiv:2110.08387.
[7] Yao, S., Yu, D., Zhao, J., Shafran, I., Griffiths, T., Cao, Y. and Narasimhan, K., 2023년. Tree of thoughts: Deliberate problem solving with large language models. Advances in neural information processing systems, 36, pp.11809-11822.
[8] Long, J., 2023년. Large language model guided tree-of-thought. arXiv preprint arXiv:2305.08291.
[9] Lewis, P., Perez, E., Piktus, A., Petroni, F., Karpukhin, V., Goyal, N., Küttler, H., Lewis, M., Yih, W.T., Rocktäschel, T. and Riedel, S., 2020년. Retrieval-augmented generation for knowledge-intensive nlp tasks. Advances in neural information processing systems, 33, pp.9459-9474.
[10] Paranjape, B., Lundberg, S., Singh, S., Hajishirzi, H., Zettlemoyer, L. and Ribeiro, M.T., 2023년. Art: Automatic multi-step reasoning and tool-use for large language models. arXiv preprint arXiv:2303.09014.
[11] Diao, S., Wang, P., Lin, Y., Pan, R., Liu, X. and Zhang, T., 2023년. Active prompting with chain-of-thought for large language models. arXiv preprint arXiv:2302.12246.
[12] Li, Z., Peng, B., He, P., Galley, M., Gao, J. and Yan, X., 2023년. Guiding large language models via directional stimulus prompting. Advances in Neural Information Processing Systems, 36, pp.62630-62656
[13] Gao, L., Madaan, A., Zhou, S., Alon, U., Liu, P., Yang, Y., Callan, J. and Neubig, G., 2022년. Pal: program-aided language models. arXiv. arXiv preprint arXiv:2211.10435.
[14] Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K. and Cao, Y., 2023년 1월. React: Synergizing reasoning and acting in language models. In International Conference on Learning Representations (ICLR).
[15] Shinn, N., Cassano, F., Gopinath, A., Narasimhan, K. and Yao, S., 2023년. Reflexion: Language agents with verbal reinforcement learning. Advances in Neural Information Processing Systems, 36, pp.8634-8652.
[16] Zhang, Z., Zhang, A., Li, M., Zhao, H., Karypis, G. and Smola, A., 2023년. Multimodal chain-of-thought reasoning in language models. arXiv preprint arXiv:2302.00923.
[17] Liu, Z., Yu, X., Fang, Y. and Zhang, X., 2023년 4월. Graphprompt: Unifying pre-training and downstream tasks for graph neural networks. In Proceedings of the ACM web conference 2023 (pp. 417-428).