목록Dev/Python (17)
Learn & Record

1. 선 그래프 : 시간에 따라 다라지는 데이터 표현하기 - 선그래프 : 데이터를 선으로 표현한 그래프 - 시간에 따라 달라지는 데이터를 표현할 때 자주 사용 - 예를 들어 환율, 주가 치수 등 경제 지표가 시간에 따라 변하는 양상을 '선 그래프'로 표현 - 시계열 데이터 : 일별 환율처럼, 일정 시간 간격을 두고 나열된 데이터 - 시계열 그래프 : 시계열 데이터를 선으로 표현한 그래프 - 1) 시계열 그래프 그리기 import seaborn as sns import pandas as pd import matplotlib.pyplot as plt # economic 데이터 불러오기 economics = pd.read_csv('./input/economics.csv') print(economics.head..

1. 한글사용 - 폰트를 변경하지 않으면 기본 폰트는 'sans-serif' - 폰트를 변경하려면 다음과 같이 수행 - matplotlib.rcParams['font.family'] = '폰트 이름' - matplotlib.rcParams['axes.unicode_minus'] = False - matplotlib.rcParams['axes.unicode_minus'] = False는 한글 폰트를 지정한 후에 - 그래프에서 마이너스(-) 폰트가 깨지는 문제를 해결해줌 import matplotlib.pyplot as plt import numpy as np import matplotlib matplotlib.rcParams['font.family'] = 'Malgun Gothic' # '맑은 고딕'으로 ..

1. Pandas 데이터 그룹핑 - 데이터 그룹핑은 데이터를 특정한 값에 기반해 묶는 기능으로 groupby()를 사용하여 통계량을 요약할 수 있음 - 통계량에 관계된 메서드에는 mean(평균), std(표준편차), var(분산), max(최대값), min(최소값) 등이 있음 import pandas as pd # 한 열을 기준으로 그룹화하기 s1 = pd.read_excel('./input/nation.xlsx') print(s1) # 국적코드 성별 입국객수 증가수 # 0 A01 남성 125000 8000 # 1 A01 여성 130000 10000 # 2 A05 남성 300 10 # 3 A05 여성 200 50 # 4 A06 남성 158912 24486 # 5 A06 여성 325000 63466 pri..

1. Pandas - numpy의 경우 배열의 모든 원소가 데이터 타입이 같아야 했지만, - pandas의 경우에는 원소의 데이터 타입이 달라도 저장 가능 import pandas as pd import numpy as np s2 = pd.Series(['a','b','c',5,6,7,8]) # 넘파이 였다면 모두를 문자열로 변경 print(s2) # 데이터가 없으면 numpy를 임포트한 후에 np.nan으로 데이터가 없음을 표시할 수 있음 # 데이터를 위한 자리 index는 있지만 실제 값이 없음 s3 = pd.Series([np.nan, 10, 30]) print(s3) # Series 데이터를 생성할 때 다음과 같이 인자로 index 추가 가능 # s = pd.Series(seq_data, inde..

- Pandas 라이브러리 설치 (Numpy도 자동으로 설치됨) 1. 넘파이 Numpy - 배열 데이터를 효과적으로 다룰 때 사용 - 파이썬으로 과학 연산을 쉽고 빠르게 할 수 있게 만든 패키지 - Numpy를 이용하면 파이썬의 기본 데이터 형식과 내장 함수를 이용하는 것보다 다차원 데이터를 효과적으로 처리 가능 - Numpy 홈페이지 : http://numpy.org/ NumPy - Use the interactive shell to try NumPy in the browser numpy.org - 배열 Array 이란 1) 순서가 있는 2) 같은 종류의 데이터가 저장된 집합 - Numpy를 이용해 배열을 처리하기 위해서는 우선 Numpy로 배열을 생성해야 함 - 다양한 방법으로 배열 생성 # 1. 배..
1. 연습문제 import requests from bs4 import BeautifulSoup as bs # BeautifulSoup 실습 : find_all() 메소드 이용하기 # 다음 뉴스에서 제목, 링크, 뉴스 본문 추출하기 # 다음 뉴스에서 제목, 링크, 뉴스 본문 추출해서 파일로 저장하기 # 1) 이전 예제를 활용할 것 # 2) 링크를 추출한 for 안에서 제목을 추출 # 3) 뉴스 본문은 링크를 이용 # 4) 링크를 타고 뉴스 본문을 들고 와야 되니 # for문 안에서 requests, BeautifulSoup가 실행이 되어야 함 # 5) 제목, 링크, 뉴스 순으로 csv 저장 # 기사 모으기 url = 'https://news.daum.net/' response = requests.get(..