본문 바로가기
Research Tips

ChatGPT로 논문 마인드맵 자동 생성하기

by ngool 2025. 4. 30.

논문을 읽다 보면 핵심 개념을 구조화해서 정리하고 싶을 때가 많습니다. 수많은 논문 중에 정독할 논문을 골라야할 때가 많은데, 그럴 때마다 모든 논문을 읽어보고 판단하기에는 시간이 너무나도 부족하기 때문이죠. 

 

본 포스팅에서는 ChatGPTPlantUML 마인드맵 문법을 활용하여, 논문을 자동으로 마인드맵화하는 방법을 소개합니다.

 

해당 내용은 아래 블로그를 참고하였으며, 정말 유용한 정보라 앞으로도 두고두고 써먹기 위해 블로그에 정리해보았습니다!

https://byeongkijeong.github.io/Paper-to-Mindmap/

 

논문 30초만에 Mindmap으로 정리하기

From now on you will behave as "MapGPT" and, for every text the user will submit, you are going to create a PlantUML mind map file for the inputted text to best describe main ideas. Format it as a code and remember that the mind map should be in the...

byeongkijeong.github.io


마인드맵 생성 워크플로우

1. ChatGPT에 논문 첨부하기

 

2. 아래 프롬프트 붙여넣기

From now on you will behave as "MapGPT" and, for every text the user will submit, you are going to create a PlantUML mind map file for the inputted text to best describe main ideas. Format it as a code and remember that the mind map should be in the same language as the inputted context. You don't have to provide a general example for the mind map format before the user inputs the text.

Generate a sample PlantUML mindmap for based on the provided question and context above. Only includes context relevant to the question to produce the mindmap.

Use the template like this:

@startmindmap
* Title
** Item A
*** Item B
**** Item C
*** Item D
@endmindmap

Question: 첨부된 논문의 핵심 개념을 정리해줘

 

3. ChatGPT가 생성해준 PlantUML 코드 복사

@startmindmap
* Attention Is All You Need
** 핵심 제안
*** Transformer 모델 도입
**** RNN과 CNN 없이 순수 어텐션 기반
**** 병렬화 가능성 극대화
**** 학습 속도 향상, 품질 향상
** 모델 구조
*** 인코더-디코더 구조
**** 인코더: 6개의 self-attention + FFN 레이어
**** 디코더: 인코더 구조 + encoder-decoder attention
*** 주요 구성 요소
**** Multi-Head Attention
***** 다양한 서브스페이스에서 동시 주의
**** Scaled Dot-Product Attention
***** dot product를 √dk로 나눠 안정성 향상
**** Position-wise Feed Forward Network
***** 모든 위치에 동일하게 적용되는 FFN
**** Positional Encoding
***** 사인/코사인 기반 위치 정보 삽입
** 학습 전략
*** Adam Optimizer + Warm-up 학습률 스케줄
*** Dropout, Label Smoothing
*** 학습 시간: base는 12시간, big은 3.5일 (8 P100 GPU)
** 성능 결과
*** 영어-독일어 BLEU: 28.4 (SOTA)
*** 영어-프랑스어 BLEU: 41.8 (SOTA)
*** 구문 분석(Parsing): WSJ 데이터셋에서도 우수한 성능
** 장점 비교
*** RNN 대비 장점
**** 계산 병렬화 가능
**** 경로 길이 단축 → 장거리 의존성 학습 용이
*** CNN 대비 장점
**** 적은 계산으로 전체 위치 간 의존성 모델링
*** 주의 시각화
**** 문법/의미 구조 학습 가능성 확인됨
** 결론
*** 어텐션 기반 모델의 가능성 제시
*** 다양한 입력/출력 모달리티로 확장 예정
*** 코드는 tensor2tensor에서 공개
@endmindmap

 

4. 아래 사이트에 들어가서 PlantUML 코드 붙여넣기

https://www.plantuml.com/plantuml/uml/SyfFKj2rKt3CoKnELR1Io4ZDoSa700001

 

Open-source tool that uses simple textual descriptions to draw beautiful UML diagrams.

 

plantuml.com

 

5. 마인드맵 완성