본문 바로가기

First step89

[TIL]21.07.15과적합 저번 시간에 마지막으로 했던 실습 문제는 버섯데이터 분류인데 이항분류,다항분류로 풀이가 가능했다. #이항분류로 해보기 import pandas as pd mushrooms= pd.read_csv('/content/drive/MyDrive/Colab Notebooks/dataset/mushrooms.csv') print(mushrooms) #label encoding - 열 단위로만 가능하므로 loop사용 from sklearn.preprocessing import LabelEncoder labelencoder= LabelEncoder() for col in mushrooms.columns: mushrooms[col]=labelencoder.fit_transform(mushrooms[col]) import.. 2021. 7. 15.
[TIL]21.07.14keras로 실습하기 #웹크롤링 실습문제 #60초에 한번씩 실시간 검색어를 추적하고 1시간동안 추적하기 #기존 검색순위와 검색어가 바뀐게 있다면 저장하고 몇번째 체크였는지 카운트 import requests, json from datetime import datetime import threading import time import copy from bs4 import BeautifulSoup oldrtdata=[None]*20 newrtdata=[None]*20 count=0 outFp=open('n_real.txt','w', encoding='utf-8') def get_now(): now=datetime.now().strftime('%Y%m%d%H%M') r = requests.get('https://www.nate... 2021. 7. 14.
[TIL]21.07.13 웹크롤링 티스토리에 공부한 내용들을 정리중인데 웹사이트 주소가 포함된 ulr형식이 있으면 복사 붙여넣기가 안된다. 해서 dot(.)을 지우고 복사해서 붙여넣은후 다시 .을 넣어줬다. import requests from bs4 import BeautifulSoup #웹페이지에서 텍스트만 불러오기 r=requests.get('http://wikidocs.net') html=r.text print(html) # 랭킹 불러오기 import requests outFp=None outStr="" outFp=open('movie.txt','w',encoding='utf-8') response=requests.get('https://movie.navercom/movie/sdb/rank/rmovie.nhn') html=resp.. 2021. 7. 13.
[TIL] 21.07.13pandas 사용, #pandas import pandas as pd s=pd.Series([9904312,3448737,2890451,2466052], index=['서울','부산','인천','대구']) print(s) 시리즈연산 Numpy 배열 처럼 시리즈도 벡터화 연산을 할수 있다 다만 연산은 시리지의 값에만 적용 되며 인덱스 값은변하지 않는다 예를 들어 인구숫자를 백만다누이로 만들기 위해 시리즈 객체를1,000,000으로 나누어도 인덱스 라벨에는 영향을 미치지않는것을 볼수있다, s/1000000 (250e4 2021. 7. 13.