標籤:: 程式設計

0

三大法人爬蟲

三大法人是台灣獨有的資料,每一檔股票每天都會公佈,非常實用!之前也有介紹利用「投信買賣超」來交易的策略,相信如有看到並使用過的人,就知道它的威力! 三大法人買賣超還有很多種用法,我們之後再一一說明,今天最主要就是先獲取到「三大法人」的資料!之後呢,我們會利用這個財經資料來建立一個投信買賣超的簡單策略。 12345678import requestsfrom io import StringIO

0

用深度學習幫你解析K線圖!

現今在股市裡有三大分析方法,即:技術面、基本面、籌碼面等,而各流派似乎也都有自己能自圓其說的選股策略。這三種方法並無法直接說出孰好孰壞,分析方法的選擇跟操作者的心態、個性、紀律都有很大的關係。而我個人覺得買股票除了要買得好(投報率高)以外,賣得快(IRR高)也是很重要的,畢竟投報率會因為時間的流逝而漸漸下降。 因為重視時間對股價影響的我,日K線裡藏有的奧妙便是我想一探究竟的。K線型態學主要就是在探

0

Python-簡單的月營收選股!

月營收的資訊是跟股價成高度相關,月營收好的股票比較容易漲,反之容易跌,被列為財報狗的付費功能之一。今天教大家如何用python免費使用此功能!這篇是完整的範例,教你如何下載月營收,過濾出可能會飆漲的股票。這個條件我很常用,效果也不錯,分享給大家! 下載近12個月的月報之前我們也講過如何獲取月營收的歷史資訊 請先到該網站把monthly_report給copy下來,我們接下來會用到喔! mont

0

用數學計算日馳何時崩盤!

目前我持有日馳的股票,前段時間噴高高,但最近不停漲停!跌停!搞的我心力交瘁。於是今天決定用一個數學模型來預測可能的崩盤時機。LPPL是我之前在ricequant看到的泡沫預測模型,對於那些極右側交易者(追漲)滿有幫助的,然而這個模型只考慮股價,不考慮財報、月報等,所以比較適合用在大盤,個股可能比較沒辦法。但我還是很想知道日馳是否要崩盤了!?XD 預防針這邊還是要提醒大家,這個只是個有趣的小實驗

0

自動下單(1)用Python爬取交易記錄

量化投資原來分為以下兩個步驟: 用數學模型,運算出買賣股票清單 清單自動與看盤軟體對接,實現自動買賣 今天就教你怎麼將自己的帳戶與python做連接,讓電腦得知你實際持股的部位。 打開券商看盤軟體(網站)首先,我們針對新光證券來進行對接,其它證券的朋友就不好意思了,我只有新光XDD,但每一家的網站設計不會差太多,可以舉一反三,做出其它證券的對接系統。 雖然我是新光的用戶,但新光的網站真的很

0

Python 簡單選股和回測

最近在看一些比較古典而學術的策略文章,雖然已經眾所皆知,但是好像很少人用,所以今天來介紹一下,如何利用 python 實做 portfolio trading。 Portfolio Trading 的意思就是選擇一籃子股票,並且照著一定的比例買入,今天我就不介紹太詳細,先用最簡單的篩選法,選出一些股票,並觀察買入一兩年後的變化。 首先,大家必須要把之前的 Python-時間序列實作! 那一篇複

0

Python 簡單158種技術指標計算

這篇接續著Python時間序列實做,先複習一下,上回合結束,我們有一個最重要的成果:close,它的columns是所有的股票代號,而index是日期。 123close = pd.DataFrame({k:d['收盤價'] for k,d in data.items()}).transpose()close.index = pd.to_datetime(close.index

0

Python 時間序列實做!

之前我們介紹了很多爬蟲,可以爬每天、每月、每季的資料,今天就是要交爬完了之後要怎麼運用。這篇文章會教如何將爬下來的資料整理成 time series (時間序列) 每日爬蟲首先,我們將之前一篇:超簡單台股每日爬蟲教學 所分享的程式碼變成以下的function,方便我們多次呼叫,才能爬每一天的股價。 每日股價爬蟲123456789101112131415161718import request

0

Python:利用Pandas輕鬆選股

上一篇的Python教學中,我們學會了怎麼爬財報,但是爬完的資料要怎麼運用呢?這篇會給大家一些方向。那篇有點不好意思,好像有兩個package沒有import,下次發現的話,可以在下方留言告訴我,我會盡快更正。 今天這篇的前置作業,請參考連結把當中的function給copy過來,然後就開始吧! 資料處理首先,我們要先使用這個function,可以直接在jupyter視窗內輸入,來取得爬取今天的主

0

Python 財報爬蟲

本系列已經介紹了各式各樣的爬蟲,從每天、每月,現在終於要季了,在尋找了各式各樣的網站,交叉比對之下,發現公開資訊觀測站的總報表還滿好抓的,所以就從這個網站下手。 Python中有個非常好用的package,叫做pandas,利用它我們就可以簡潔的把網頁上的表格,轉換成dataframe,也就是整理成程式看的懂的表格,我們幾乎不需要做太多的處理!這也是我喜歡用python一點。 這邊我用的是py